[go: up one dir, main page]

JP2023038870A - Impression evaluation method and impression evaluation system - Google Patents

Impression evaluation method and impression evaluation system Download PDF

Info

Publication number
JP2023038870A
JP2023038870A JP2021145817A JP2021145817A JP2023038870A JP 2023038870 A JP2023038870 A JP 2023038870A JP 2021145817 A JP2021145817 A JP 2021145817A JP 2021145817 A JP2021145817 A JP 2021145817A JP 2023038870 A JP2023038870 A JP 2023038870A
Authority
JP
Japan
Prior art keywords
emotion
face
impression
evaluation
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021145817A
Other languages
Japanese (ja)
Inventor
千尋 三枝
Chihiro Saegusa
崇訓 五十嵐
Takanori Igarashi
美佳 野村
Mika Nomura
健雄 今井
Takeo Imai
敬志 猿渡
Keishi Saruwatari
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2021145817A priority Critical patent/JP2023038870A/en
Publication of JP2023038870A publication Critical patent/JP2023038870A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an impression evaluation method and an impression evaluation system configured to evaluate multifaceted and complicated impressions of the face of a subject, objectively and more accurately.SOLUTION: An impression evaluation method includes a face information acquisition process, an expression motion evaluation process, an emotion index calculation process, and an information presentation process. The face information acquisition process acquires multiple pieces of different face information data. The expression motion evaluation process evaluates strength of motion per expression motion unit based on the motion of muscles of facial expression, for each of the face information data. The emotion index calculation process calculates an emotion index per expression motion unit, on the basis of a result evaluated by the expression motion evaluation process and an emotion associated with the expression motion unit. The information presentation process presents, using the emotion indices of multiple pieces of face information data, association information between the face information data and the emotion indices for evaluating impression of the face of a subject.SELECTED DRAWING: Figure 1

Description

本発明は、印象評価方法及び印象評価システムに関し、特に、評価対象者の顔情報に基づき、評価対象者の顔から受ける印象を評価する印象評価方法及び印象評価システムに関する。 TECHNICAL FIELD The present invention relates to an impression evaluation method and an impression evaluation system, and more particularly to an impression evaluation method and an impression evaluation system for evaluating an impression received from an evaluation subject's face based on the evaluation subject's face information.

一般に、人の印象は、外観や言動などの要因によって他人に様々な印象を与えるが、その中でも、顔の見た目がその人の印象を決める大きな要因となっていることが知られている。この顔の見た目に関し、人が感じる印象を評価する技術について様々な検討がされている。例えば特許文献1には、顔の見た目の印象への影響が大きい部位における、物理量に基づいて、評価対象者の顔の見た目の印象を鑑別(評価)する方法が開示されている。斯かる方法は、(1)先ず、評価対象者の顔をカメラで撮像した動画像から人の見た目の印象への大きい部位(例えば、頬や目の周辺部)を決定し、(2)次に、決定した部位における顔の表情変化に伴って生じる皮膚変化の物理量に基づき、評価対象者の顔の見た目の印象を評価する、といった手順を踏むことにより行われる。 In general, the impression of a person gives various impressions to others depending on factors such as appearance and speech and behavior. Various studies have been conducted on techniques for evaluating the impression that people feel regarding the appearance of this face. For example, Patent Literature 1 discloses a method of discriminating (evaluating) the visual impression of an evaluation subject's face based on the physical quantity in a portion that greatly affects the visual impression of the face. Such a method is as follows: (1) First, from a moving image of the subject's face captured by a camera, a large portion (for example, the cheek or the periphery of the eye) that gives a large visual impression to a person is determined, and (2) Secondly, the visual impression of the subject's face is evaluated based on the physical quantity of the skin change caused by the facial expression change at the determined site.

また、人の表情に関する研究として、例えば、非特許文献1には、作り笑いをした場合、右顔と左顔とでは異なる表情が表出する、左右非対称な動作がみられるといった報告がされている。 In addition, as research on human facial expressions, for example, Non-Patent Document 1 reports that when a person makes a fake smile, different facial expressions appear on the right and left faces, and left-right asymmetrical movements are observed. .

人の表情を評価するソフトウェア開発も進められている。例えば、非特許文献2には、FACS認定コーダー(FACSマニュアル及びInvestigatorガイドをもとに「FACS」のコード化手法を習得し、FACSコーダー認定テストに合格した者)によるコーディング結果を教師データ化したプログラム(例えば、「Affdex」(Affectiva社))が開発されている。 Development of software for evaluating human facial expressions is also underway. For example, in Non-Patent Document 2, the results of coding by a FACS-certified coder (those who have learned the "FACS" coding method based on the FACS manual and Investigator guide and passed the FACS coder certification test) have been turned into teacher data. Programs (eg, "Affdex" (Affectiva)) have been developed.

特開2020-061194号公報JP 2020-061194 A

Paul Ekman, Joseph C. Hager, Wallace V. Friesen,「The Symmetry of Emotional and Deliberate Facial Actions」, Psychophysiology, Vol.18,No.2, March 1981Paul Ekman, Joseph C. Hager, Wallace V. Friesen, "The Symmetry of Emotional and Deliberate Facial Actions", Psychophysiology, Vol.18, No.2, March 1981 Affectiva株式会社、[online]、[2021年7月6日検索]、インターネット<https://www.affectiva.jp/>Affectiva Co., Ltd., [online], [searched July 6, 2021], Internet <https://www.affectiva.jp/>

人の顔は、様々な感情(内面)の移り変わりに応じて、その表情が絶えず変化するのが一般的である。また、非特許文献1のように、顔の左右で異なる表情が表出していることも、顔の印象に影響を与える要因となり得る。しかしながら、特許文献1に記載の技術は、顔の年齢印象等に影響が及ぶ部位にのみ焦点をあてた印象の評価方法であって、見た目の印象が実際の評価対象者の年齢よりも若いのか、あるいは、老けているのか、といった比較的単純な評価結果しか得ることができないものである。したがって、特許文献1に記載の技術は、評価対象者の顔から受ける印象を高精度に評価できるものではなかった。また、非特許文献2に記載の技術は、表情動作の客観的な記述及び基本感情の推定にとどまっており、見る角度によって印象が異なる顔の多面性、あるいは異なる表情が表出した複雑な内面印象を高精度に評価する点について改善の余地があった。 It is common for a person's face to constantly change its expression according to changes in various emotions (inside). In addition, as in Non-Patent Document 1, different facial expressions are expressed on the left and right sides of the face, which can also be a factor that affects the impression of the face. However, the technology described in Patent Literature 1 is an impression evaluation method that focuses only on the parts that affect the age impression of the face, etc., and whether the appearance impression is younger than the actual age of the person to be evaluated. , or is old, and only relatively simple evaluation results can be obtained. Therefore, the technique described in Patent Literature 1 cannot accurately evaluate the impression received from the evaluation subject's face. In addition, the technique described in Non-Patent Document 2 is limited to the objective description of facial expressions and the estimation of basic emotions. There is room for improvement in terms of highly accurate evaluation of impressions.

本発明は、前述した従来技術が有する欠点を解消し得る、印象評価方法及び印象評価システムを提供することに関する。 SUMMARY OF THE INVENTION The present invention relates to providing an impression evaluation method and an impression evaluation system that can overcome the drawbacks of the prior art described above.

本発明は、評価対象者の顔情報データに基づき、該評価対象者の顔から受ける印象を評価する印象評価方法に関する。
前記印象評価方法は、複数の異なる顔画像を取得する顔情報取得工程と、個々の前記顔画像に対し、表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価工程と、前記表情動作評価工程の評価結果と、表情動作単位に関連付けられている感情とに基づき、表情動作単位の感情指数を算出する感情指数算出工程と、複数の前記顔画像の前記感情指数を用いて、前記評価対象者の顔から受ける印象を評価するための、前記顔情報データと前記感情指数との対応情報を提示する情報提示工程とを備える。
The present invention relates to an impression evaluation method for evaluating an impression received from the face of an evaluation subject based on face information data of the evaluation subject.
The impression evaluation method includes a facial information acquisition step of acquiring a plurality of different facial images, and a facial movement evaluation step of evaluating the intensity of movement for each facial movement unit based on the movement of facial muscles for each of the facial images. an emotion quotient calculation step of calculating an emotion quotient for each facial expression movement unit based on the evaluation result of the facial expression movement evaluation step and the emotion associated with the facial movement unit; and an information presenting step of presenting corresponding information between the face information data and the emotion quotient for evaluating the impression received from the face of the person to be evaluated, using the information presenting method.

また、本発明は、評価対象者の顔情報データに基づき、該評価対象者の顔から受ける印象を評価するための印象評価システムに関する。
前記印象評価システムは、複数の異なる顔画像を取得する顔情報取得部と、個々の前記顔画像に対し、表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価部と、前記表情動作評価部の評価結果と、表情動作単位に関連付けられている感情とに基づき、表情動作単位ごとに感情指数を算出して、複数の前記顔情報データの前記感情指数を出力する感情指数算出部とを備える。
The present invention also relates to an impression evaluation system for evaluating the impression received from the evaluation subject's face based on the evaluation subject's face information data.
The impression evaluation system includes a facial information acquisition unit that acquires a plurality of different facial images, and a facial movement evaluation unit that evaluates the strength of movement for each facial movement unit based on the movement of facial muscles for each of the facial images. and calculating the emotion quotient for each facial movement unit based on the evaluation result of the facial movement evaluation unit and the emotion associated with the facial movement unit, and outputting the emotion quotient of the plurality of facial information data. and an emotion quotient calculator.

本発明の印象評価方法及び印象評価システムによれば、評価対象者の顔から受ける多面的かつ複雑な印象を客観的かつ精度よく評価することができる。 According to the impression evaluation method and the impression evaluation system of the present invention, it is possible to objectively and accurately evaluate the multifaceted and complex impression received from the face of the person to be evaluated.

図1は、本発明の印象評価システムの一実施形態を示す概略説明図である。FIG. 1 is a schematic explanatory diagram showing one embodiment of the impression evaluation system of the present invention. 図2は、図1に示す印象評価システムにおいて実行される制御処理の内容を示すフローチャートである。FIG. 2 is a flow chart showing the contents of control processing executed in the impression evaluation system shown in FIG. 図3は、図1のシステムで取得された顔画像とともに、該顔画像に基づく感情指数パタンを示す表である。FIG. 3 is a table showing facial images acquired by the system of FIG. 1 together with emotional quotient patterns based on the facial images. 図4は、本発明に係る対応情報の一例であって、感情指標を縦軸及び横軸とするグラフである。FIG. 4 is an example of correspondence information according to the present invention, and is a graph in which emotion indices are plotted on the vertical and horizontal axes. 図5は、経時的に取得された顔画像とともに、該顔画像に基づく感情指数パタンを示す。FIG. 5 shows facial images acquired over time and emotional quotient patterns based on the facial images. 図6は、本発明に係る化粧印象評価方法における対応情報の一例であって、感情指標を縦軸及び横軸とするグラフである。FIG. 6 is an example of correspondence information in the makeup impression evaluation method according to the present invention, and is a graph in which emotion indices are plotted on the vertical axis and the horizontal axis. 図7は、実施例1にかかる素顔かつ無表情時の女性の顔画像とともに、該顔画像に基づく感情指数パタンを示す。FIG. 7 shows an emotion quotient pattern based on the face image along with the face image of a woman with a bare face and expressionless face according to the first embodiment. 図8は、実施例1にかかる素顔かつ無表情時の男性の顔画像とともに、該顔画像に基づく感情指数パタンを示す。FIG. 8 shows a face image of a man with a bare face and expressionless face according to the first embodiment, and an emotion quotient pattern based on the face image. 図9(a)~(c)は、図7及び図8の各感情指数パタンを用いて作成された評価対象者の顔から受ける印象を評価するためのグラフである。FIGS. 9(a) to 9(c) are graphs for evaluating the impression received from the evaluation subject's face created using each emotion quotient pattern of FIGS. 7 and 8. FIG. 図10は、実施例2における素顔の顔画像及びメイク1を施した顔画像とともに、該顔画像に基づく感情指数パタンを示す。FIG. 10 shows a face image of a bare face and a face image with makeup 1 applied in Example 2, as well as emotional quotient patterns based on the face images. 図11は、実施例2のメイク2を施した女性の顔画像とともに、該顔画像に基づく感情指数パタンを示す。FIG. 11 shows a face image of a woman with makeup 2 of Example 2 and an emotion quotient pattern based on the face image. 図12は、実施例2のメイク3を施した女性の顔画像とともに、該顔画像に基づく感情指数パタンを示す。FIG. 12 shows a face image of a woman with makeup 3 of Example 2 and an emotion quotient pattern based on the face image. 図13(a)~(c)は、図10、図11及び図12の各感情指数パタンを用いて作成された評価対象者の顔から受ける印象を評価するためのグラフである。FIGS. 13(a) to 13(c) are graphs for evaluating the impression received from the evaluation subject's face, which are created using the emotion quotient patterns of FIGS. 10, 11 and 12. FIG. 図14は、実施例3におけるアイブロウを施す前と施した後の眉周りの画像とともに、該画像データに基づく感情指数パタンを示す。FIG. 14 shows images around the eyebrows before and after applying eyebrows in Example 3, as well as emotional quotient patterns based on the image data. 図15は、実施例4におけるメイクを施す前と施した後の顔の一部の画像とともに、該画像データに基づく感情指数パタンを示す。FIG. 15 shows an image of a part of the face before and after applying makeup in Example 4, together with an emotion quotient pattern based on the image data. 図16は、実施例5における素顔の女性の表情表出時における顔画像に基づく感情指数パタンを示す。FIG. 16 shows emotion quotient patterns based on face images when a woman with a bare face expresses facial expressions in Example 5. FIG. 図17は、実施例5におけるFD1を塗布した女性の表情表出時の顔画像と、該顔画像に基づく感情指数パタンを示す。FIG. 17 shows a facial image of a woman to whom FD1 was applied in Example 5 when expressing facial expressions, and an emotion quotient pattern based on the facial image. 図18は、実施例5におけるFD2を塗布した女性の表情表出時の顔画像と、該顔画像に基づく感情指数パタンを示す。FIG. 18 shows a facial image of a woman to whom FD2 was applied in Example 5 when expressing facial expressions, and an emotion quotient pattern based on the facial image. 図19(a)及び(b)は、図16~図18の各感情指数パタンを用いて作成された女性の顔のから受ける印象を評価するためのグラフである。FIGS. 19A and 19B are graphs for evaluating the impression received from a woman's face created using each emotion index pattern of FIGS. 16-18. 図20は、実施例6におけるインタビュー時の評価対象者の顔画像に基づく感情指数パタンを示す表である。FIG. 20 is a table showing emotion quotient patterns based on face images of persons to be evaluated at interview in Example 6. FIG.

以下、本発明の印象評価システムを、その好ましい一実施形態に基づき図面を参照しながら説明する。図1は、本実施形態にかかる印象評価システム1(以下、単に「システム1」という)を用いて、評価対象者Hの顔から受ける印象を評価する様子を示したものである。より具体的には本システム1や後述する印象評価方法は、評価対象者Hの顔から受ける印象を評価するための評価材料を提供するものである。斯かる評価材料は、評価対象者Hの顔から受ける印象を判断や説明にも用いることができる。 BEST MODE FOR CARRYING OUT THE INVENTION An impression evaluation system of the present invention will be described below based on a preferred embodiment thereof with reference to the drawings. FIG. 1 shows how an impression evaluation system 1 (hereinafter simply referred to as "system 1") according to the present embodiment is used to evaluate the impression received from the face of an evaluation subject H. As shown in FIG. More specifically, the present system 1 and the impression evaluation method described later provide evaluation materials for evaluating the impression received from the face of the person H to be evaluated. Such evaluation materials can also be used to judge and explain the impression received from the evaluation subject H's face.

(印象評価システム1の構成)
本実施形態のシステム1は、顔情報データとして顔画像を取得する。顔情報データは、評価対象者の顔の表情を示す情報であり、顔画像の他に、シミュレーションソフトを用いた3Dモデルの画像や、目、鼻、口及び耳等の顔パーツの輪郭形状の三次元座標値又はベクトル値等の情報が含まれる。
本実施形態の印象評価システム1は、図1に示すように、評価対象者Hの顔を撮像する複数(本実施形態では、9台)の撮像装置C1~C9と、撮像装置C1~C9により撮像された顔画像を用いて評価対象者Hの印象を評価する制御装置2とを備えている。
(Configuration of impression evaluation system 1)
The system 1 of this embodiment acquires a face image as face information data. The face information data is information that indicates the facial expression of the person to be evaluated. In addition to the face image, it includes a 3D model image using simulation software, and contour shapes of facial parts such as eyes, nose, mouth and ears. Information such as three-dimensional coordinate values or vector values is included.
As shown in FIG. 1, the impression evaluation system 1 of the present embodiment includes a plurality of (nine in this embodiment) imaging devices C1 to C9 for imaging the face of the person H to be evaluated, and the imaging devices C1 to C9. and a control device 2 that evaluates the impression of the person H to be evaluated using the photographed face image.

複数の撮像装置C1~C9は、例えば、静止画像を撮像することが可能なカメラ(例えば、単眼カメラ)からなり、評価対象者Hの前方を取り囲むように、所定の角度間隔(本実施形態では、約22.5度の間隔)を空けて配置されている。また、本実施形態にかかる撮像装置C1~C9は、互いに電気的に接続(有線接続または無線接続)され、撮像操作に応じて同期して、評価対象者Hの顔を同時に撮像するように構成される。これにより、評価対象者Hの、正面(撮像装置C5)、左真横(撮像装置C1)及び右真横(撮像装置C9)を含む、角度間隔が約22.5度ずつずれた9種類の顔画像を、同時に取得することが可能になっている。 The plurality of imaging devices C1 to C9 are, for example, composed of cameras (for example, monocular cameras) capable of capturing still images, and surround the evaluation subject H in front at predetermined angular intervals (in this embodiment, , about 22.5 degrees apart). In addition, the imaging devices C1 to C9 according to the present embodiment are electrically connected (wired or wirelessly) to each other, and configured to simultaneously image the face of the subject H in synchronization with the imaging operation. be done. As a result, nine types of face images of the person H to be evaluated, including the front (imaging device C5), the left sideways (imaging device C1), and the right sideways (imaging device C9), with angular intervals shifted by about 22.5 degrees. can be obtained simultaneously.

本実施形態では、複数の顔画像を取得するために、撮像装置の台数を9台としたが、撮像装置の台数はこれに限定されず、2台以上9台未満としてもよく、あるいは10台以上としてもよい。なお、評価対象者をほぼ正面から撮像できる位置に、少なくとも一台は撮像装置を配するのが好ましい。また、撮像装置C1~C9は、2次元画像を撮像する装置に限られず、3次元画像を撮像する、いわゆる3Dカメラであっても構わない。さらに、撮像装置は、静止画像を撮像する装置に限られず、動画像を撮像する装置(以下、「動画像撮像装置」と称す)を用いてもよい。この場合、動画像データから複数のフレーム画像(静止画像)や動画クリップを抜き出すことができるので、動画像撮像装置の台数を1台とすることが可能である(後述する「実施例6」参照)。もちろん、動画像撮像装置は、撮像装置C1~C9のように、複数台用いても構わない。この場合、例えば、各動画像撮像装置同士を互いに同期させるとともに、各動画像から同じタイミングでのフレーム画像等を抜き出せばよい。
顔画像は、RGBやHSV等の色情報で表されたカラー画像であってもよく、グレー・スケール化された画像や白黒に二値化された画像、特定の波長帯の情報を色情報として反映させたスペクトル画像、各スペクトル画像を色情報として組み合わせたマルチスペクトル画像であってもよい。
In this embodiment, the number of imaging devices is nine in order to acquire a plurality of face images, but the number of imaging devices is not limited to this, and may be two or more and less than nine, or ten. It is good as above. In addition, it is preferable to arrange at least one imaging device at a position where the evaluation subject can be imaged almost from the front. Further, the imaging devices C1 to C9 are not limited to devices that capture two-dimensional images, and may be so-called 3D cameras that capture three-dimensional images. Furthermore, the imaging device is not limited to a device that captures a still image, and a device that captures a moving image (hereinafter referred to as a “moving image capturing device”) may be used. In this case, since a plurality of frame images (still images) and moving image clips can be extracted from moving image data, the number of moving image capturing apparatuses can be reduced to one (see "Embodiment 6" described later). ). Of course, a plurality of moving image pickup devices may be used like the image pickup devices C1 to C9. In this case, for example, the moving image pickup devices may be synchronized with each other, and frame images or the like at the same timing may be extracted from each moving image.
The face image may be a color image represented by color information such as RGB or HSV, and may be a grayscale image, a black and white binarized image, or information in a specific wavelength band as color information. It may be a reflected spectral image, or a multispectral image in which each spectral image is combined as color information.

次に、本実施形態にかかる制御装置2について説明する。本実施形態の制御装置2は、公知の汎用コンピュータを用いて構成することが可能である。汎用コンピュータは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等を含んで構成される。CPUは、画像表示のためのグラフィックスプロセッサ(Graphics Processing Unit(GPU))、High-Definition(HD)ビデオ等のエンコーディング及びデコーディングを行うマルチメディアプロセッサ、ディスプレイを制御するディスプレイコントローラ、及び給電及び充電を制御するためのパワーマネジメントIntegrated Circuit(IC)等を含んでもよい。制御装置2が行う処理は、CPUがROMやディスクなどに格納されたプログラムをRAMに展開して実行することにより実現される。斯かる処理は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)により実現されてもよく、ASICとFPGAの組み合わせにより実現されてもよい。 Next, the control device 2 according to this embodiment will be described. The control device 2 of this embodiment can be configured using a known general-purpose computer. The general-purpose computer includes a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), and the like. The CPU includes a graphics processor (Graphics Processing Unit (GPU)) for displaying images, a multimedia processor for encoding and decoding High-Definition (HD) video, a display controller for controlling the display, and power supply and charging. may include a power management Integrated Circuit (IC) or the like for controlling the The processing performed by the control device 2 is implemented by the CPU developing a program stored in a ROM, disk, or the like into a RAM and executing the program. Such processing may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or by a combination of an ASIC and an FPGA.

本実施形態の制御装置2は、制御部3と、記憶部4と、顔情報取得部5と、表示部6とを有し、これらは互いに電気的に接続されている。 The control device 2 of this embodiment has a control section 3, a storage section 4, a face information acquisition section 5, and a display section 6, which are electrically connected to each other.

(顔情報取得部5)
顔情報取得部5は、複数の異なる顔情報データを取得する。本実施形態の顔情報取得部5は、撮像装置C1~C9を用いて、複数の異なる角度からの顔情報データを取得する。具体的には、顔情報取得部5は、各撮像装置C1~C9と通信可能なインターフェイスであり、撮像装置C1~C9から送信される各顔画像データの入力を受け付ける。この場合、システム1は、複数の異なる角度から見たときの顔画像を用いて、印象評価を行うための顔情報データと感情指数との対応情報を作成する。感情指数及び対応情報については後述する。
また、顔情報取得部5は、撮像装置C1~C9とは別の手段で顔情報データを取得してもよい。すなわち、顔情報取得部5は、制御装置2に送信又は入力された顔画像等の顔情報データを取得してもよい。例えば、顔情報取得部5が、評価対象者Hの顔を機械学習し、制御装置2に読み込ませた動画像データから、該評価対象者Hの顔のフレーム画像を抽出することで、顔情報データを取得してもよい。この場合、システム1は、経時的に取得された顔画像を用いて印象評価を行うための感情指数や感情指標等のデータを算出する。
(Face information acquisition unit 5)
The face information acquisition unit 5 acquires a plurality of different face information data. The face information acquisition unit 5 of this embodiment acquires face information data from a plurality of different angles using the imaging devices C1 to C9. Specifically, the face information acquisition unit 5 is an interface capable of communicating with each of the imaging devices C1 to C9, and receives input of each face image data transmitted from the imaging devices C1 to C9. In this case, the system 1 uses face images viewed from a plurality of different angles to create correspondence information between face information data and emotion quotients for impression evaluation. The emotion quotient and corresponding information will be described later.
Further, the face information acquisition unit 5 may acquire face information data by means other than the imaging devices C1 to C9. That is, the face information acquisition unit 5 may acquire face information data such as a face image that is transmitted or input to the control device 2 . For example, the face information acquiring unit 5 machine-learns the face of the person H to be evaluated, and extracts a frame image of the face of the person H to be evaluated from the moving image data read by the control device 2. data may be obtained. In this case, the system 1 calculates data such as an emotion index and an emotion index for performing impression evaluation using face images acquired over time.

顔情報取得部5は、取得した顔情報データを制御部3の記憶部4に記憶させる。また、制御装置2の操作者の操作(指令)に応じて、顔情報取得部5は、記憶部4に記憶させた顔情報データや、該顔情報取得部5が取得した顔情報データを読み込み、制御装置2が具備する表示部6や、該制御装置2とネットワークを介して接続された情報端末(例えば、スマートフォン)の表示部に、該顔情報データを表示させる。
制御装置2の操作者には、システム1を管理する管理者だけでなく、後述するシステム1のユーザーが含まれる。
The face information acquisition section 5 stores the acquired face information data in the storage section 4 of the control section 3 . In addition, according to the operation (command) of the operator of the control device 2, the face information acquisition unit 5 reads the face information data stored in the storage unit 4 and the face information data acquired by the face information acquisition unit 5. , the face information data is displayed on the display unit 6 provided in the control device 2 or the display unit of an information terminal (for example, a smart phone) connected to the control device 2 via a network.
The operator of the control device 2 includes not only an administrator who manages the system 1 but also a user of the system 1, which will be described later.

(記憶部4)
記憶部4には、本印象評価システム1の基本動作を司る基本動作プログラムが記憶されるほか、感情指数を算出するためのFACS推定自動プログラムや、感情指標を算出するための算出式等が記憶されている。また、記憶部4には、顔情報データ(例えば、顔画像データ)が記憶されている。記憶部4は、評価対象者Hの顔情報データを、データベース化して、記憶していてもよい。斯かるデータベースは、評価対象者Hの顔情報データと、該評価対象者Hの識別情報や印象評価の解析条件とが関連付けられて作成される。
(storage unit 4)
The storage unit 4 stores a basic operation program that governs the basic operations of the impression evaluation system 1, as well as a FACS estimation automatic program for calculating emotion quotients, calculation formulas for calculating emotion quotients, and the like. It is The storage unit 4 also stores face information data (for example, face image data). The storage unit 4 may store the face information data of the person H to be evaluated as a database. Such a database is created by associating the face information data of the person H to be evaluated, the identification information of the person H to be evaluated, and the analysis conditions for impression evaluation.

(表示部6)
表示部6は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)からなり、制御部3からの指令に基づいて所定の画像、例えば、後述する感情指数算出部3Bにより算出された感情指数や、感情指標算出部3Cにより算出された感情指標が記された感情指数パタン(例えば表1)を表示する。感情指数パタンについては後述する。
(Display unit 6)
The display unit 6 includes, for example, a liquid crystal display (LCD), and displays a predetermined image based on a command from the control unit 3. An emotion index pattern (for example, Table 1) in which the emotion index calculated by the index calculator 3C is described is displayed. The emotion quotient pattern will be described later.

(制御部3)
本実施形態の制御部3は、記憶部4に記憶される各種プログラムを読み込み、所定の演算処理を行って、表示部6に所定の画像を表示させる一般的な制御を行うほか、撮像装置C1~C9のそれぞれから送信された9種類の顔画像に基づいて、評価対象者Hの顔から受ける印象を評価する制御を行う。
(control unit 3)
The control unit 3 of the present embodiment reads various programs stored in the storage unit 4, performs predetermined arithmetic processing, and performs general control for displaying a predetermined image on the display unit 6. Control is performed to evaluate the impression received from the evaluation subject H's face based on the nine types of face images transmitted from each of C9.

本実施形態では、このような印象の評価を行うための表情分析手法として、Paul EkmanやWallace Friesenらにより開発された「Facial Action Coding System」(顔面動作符号化システム、以下、「FACS」と称す)を採用している。 In the present embodiment, as a facial expression analysis method for evaluating such an impression, the "Facial Action Coding System" (Facial Action Coding System, hereinafter referred to as "FACS") developed by Paul Ekman, Wallace Friesen, et al. ) is adopted.

ここで、本実施形態の理解を容易にするため、上記した「FACS」について説明する。「FACS」は、解剖学的観点から表情筋(例えば、皺眉筋、頬筋)の動きに基づいて顔面動作を包括的に測定するために開発された手法で、定義された約40の顔の基本動作のうち、解剖学的基礎が明確な32の動作を「Action Unit」(動作単位、以下、「AU」と称す)として定義等したものである。このように定義された「AU」は、動作の強度を「A」~「E」の5段階で評価等することで、符号化(コーディング)することができ、これにより、顔の表情表出を客観的に評価することが可能になっている。斯かる「AU」が、本発明に係る表情動作単位に対応する。
またFACSの前記評価において、表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないものとする。
Here, in order to facilitate understanding of this embodiment, the above-described "FACS" will be described. "FACS" is a method developed to comprehensively measure facial movements based on the movements of facial muscles (e.g., corrugator and buccal muscles) from an anatomical point of view. Of the basic motions, 32 motions with clear anatomical foundations are defined as "Action Units" (hereinafter referred to as "AU"). The "AU" defined in this way can be coded by evaluating the strength of the action in five stages from "A" to "E", thereby enabling the expression of facial expressions. can be evaluated objectively. Such "AU" corresponds to the facial action unit according to the present invention.
In addition, in the FACS evaluation, if no movement is observed in the facial expression unit, none of "A" to "E" is applicable.

また、「AU」については、その定義された動作によって、感情価を評価できる。すなわち、AUの動作が「Positive」な表情表出であるのか、あるいは「Negative」な表情表出であるのかを評価することが可能である。例えば、顔(表情)を見て受ける感情印象と各表情動作との関連を調べた先行研究(Kohler et al., (2004) Psychiatry Research)に基づき、「AU6」(頬を持ち上げる動作)や「AU12」(唇両端を引き上げる動作)は「Positive」に分類される表情表出として捉えることが可能である。また、「AU2」(眉の外側を上げる動作)や「AU4」(眉を下げる動作)は「Negative」に分類される表情表出として捉えることが可能である。なお、「Positive」及び「Negative」の何れにも該当しない「AU」、例えば、「AU1」(眉の内側を上げる動作)や「AU5」(上瞼を上げる動作)については「Neutral」に分類される表情表出として捉えられる。ここで用いる「感情価」は、「Positive」と「Negative」の2つの極性と、これらの中間である「Neutral」を含む感情の質的な違いを規定する概念である。 Also, for "AU", emotional valence can be evaluated by its defined action. That is, it is possible to evaluate whether the motion of the AU is a "positive" facial expression or a "negative" facial expression. For example, based on previous research (Kohler et al., (2004) Psychiatry Research) that investigated the relationship between the emotional impression received by looking at the face (expression) and each facial expression, "AU6" (movement to lift the cheek) and " AU12" (movement of pulling up both ends of the lips) can be regarded as a facial expression classified as "Positive". Also, "AU2" (movement to raise the outer side of the eyebrow) and "AU4" (movement to lower the eyebrow) can be regarded as facial expressions classified as "Negative". "AU" that does not correspond to either "Positive" or "Negative", for example, "AU1" (movement to raise the inner side of the eyebrow) and "AU5" (movement to raise the upper eyelid) are classified as "Neutral". It can be regarded as a facial expression that is done. The "emotional valence" used here is a concept that defines a qualitative difference in emotions including two polarities of "Positive" and "Negative" and "Neutral" that is intermediate between them.

「AU」は、前述したように「Positive」、「Negative」及び「Neutral」に分類することができるほか、いわゆる基本感情(「Happy」、「Sad」、「Angry」及び「Fear」)についても分類することが可能である。例えば、「AU6」(頬を持ち上げる動作)や「AU12」(唇両端を引き上げる動作)は「Happy」に分類される表情表出として、「AU17」(顎を上げる)は「Sad」に分類される表情表出として、「AU9」(鼻にしわを寄せる)は「Angry」に分類される表情表出として、また、「AU2」(眉の外側を上げる)は「Fear」に分類される表情表出として、それぞれ評価することが可能である。 "AU" can be classified into "Positive", "Negative" and "Neutral" as described above, as well as so-called basic emotions ("Happy", "Sad", "Angry" and "Fear"). It is possible to classify For example, "AU6" (movement to lift the cheek) and "AU12" (movement to lift both lips) are classified as "Happy" as facial expressions, and "AU17" (raise the chin) is classified as "Sad". “AU9” (wrinkle the nose) is an expression classified as “Angry,” and “AU2” (raise the outside of the eyebrows) is an expression classified as “Fear.” As an expression, it is possible to evaluate each.

本実施形態では、上記した「AU」の動作強度を符号化(コーディング)するためのアルゴリズム等からなるプログラム(FACS推定自動プログラム)が記憶部4に記憶されており、当該プログラムに従って、制御部3が評価対象者Hの顔の表情(AUごとの動作強度)を評価するように構成されている。 In this embodiment, a program (FACS estimation automatic program) consisting of an algorithm for coding the above-described "AU" motion intensity is stored in the storage unit 4, and the control unit 3 is configured to evaluate the facial expression of the person to be evaluated H (movement intensity for each AU).

制御部3は、表情動作評価部3Aと、感情指数算出部3Bと、感情指標算出部3Cと、情報提示部3Dとを有し、これら表情動作評価部3A等によって、評価対象者Hの顔から受ける印象評価を行うための対応情報を導出するように構成される。 The control unit 3 includes a facial movement evaluation unit 3A, an emotion quotient calculation unit 3B, an emotion index calculation unit 3C, and an information presentation unit 3D. It is configured to derive correspondence information for performing impression evaluation received from.

表情動作評価部3Aは、個々の顔情報データに対し、表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する。本実施形態の表情動作評価部3Aは、撮像装置C1~C9から送信された各顔画像データに対して、各「AU」(例えば、「AU4」や「AU14」)ごとに、動きの強度(例えば、「A」~「E」の5段階)を評価する機能を有している。 The facial expression movement evaluation unit 3A evaluates the intensity of movement for each facial expression movement unit based on the movement of facial muscles for each face information data. The facial expression action evaluation unit 3A of the present embodiment evaluates the intensity of movement ( For example, it has a function of evaluating five grades from "A" to "E").

感情指数算出部3Bは、表情動作評価部3Aの評価結果と、表情動作単位に関連付けられている感情とに基づき、表情動作単位ごとに感情指数を算出する。本実施形態の感情指数算出部3Bは、表情動作評価部3Aによる評価結果と、「AU」に関連付けられている感情とに基づいて、各「AU」ごとに感情指数を算出する機能を有している。本実施形態の感情指数算出部3Bは、表情動作単位(AU)に関連付けられている感情を、「Positive」、「Negative」及び「Neutral」といった感情価で表し、該感情価の感情指数を算出する。
ここで前記の動きの強度の評価「A」~「E」は、1~5で数値化できる。例えばAU12は「Positive」に関連付けられるが、その動きの強度がBだった場合、これを「Positive」の「2」という形で算出に用いる。斯かる感情指数の算出(数値化)において表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないものとするため、「0」となる。
The emotion quotient calculation unit 3B calculates an emotion quotient for each facial expression movement unit based on the evaluation result of the facial expression movement evaluation unit 3A and the emotion associated with the facial movement unit. The emotion quotient calculation unit 3B of the present embodiment has a function of calculating an emotion quotient for each "AU" based on the evaluation result by the facial movement evaluation unit 3A and the emotion associated with the "AU". ing. The emotional quotient calculation unit 3B of the present embodiment expresses emotions associated with facial movement units (AU) by emotional valences such as "Positive", "Negative" and "Neutral", and calculates the emotional quotients of the emotional vales. do.
Here, the above motion strength evaluations “A” to “E” can be quantified as 1 to 5. For example, AU12 is associated with "Positive", and if its movement intensity is B, this is used in the calculation in the form of "2" of "Positive". In the calculation (numericalization) of the emotion quotient, if no movement is observed in the facial expression unit, it is assumed that none of "A" to "E" is applicable, and thus "0" is given.

本実施形態において表情動作評価部3A及び感情指数算出部3Bが行う処理は、FACS推定自動プログラムに基づく。FACS推定自動プログラムは、顔画像から各「AU」ごとの表情動作を抽出・解析し、当該「AU」の動作強度を評価して符号化(コーディング)するとともに、「AU」に関連付けられた感情価とその感情指数とを導出するためのプログラムである。具体的には、表情動作評価部3Aは、顔画像データにおける各AUの動作強度をA~Eで評価する。感情指数算出部3Bは、各「AU」の前記動作強度の評価結果から、該AUごとの感情価とその感情指数を導出する。FACS推定自動プログラムは、例えば、上記したFACS認定コーダーによるコーディング結果を教師データ化したプログラム(例えば、「Affdex」(Affectiva社))を利用することにより実現できる。 The processing performed by the facial expression action evaluation section 3A and the emotion quotient calculation section 3B in this embodiment is based on the FACS estimation automatic program. The FACS estimation automatic program extracts and analyzes the facial expression action for each "AU" from the face image, evaluates and encodes the action intensity of the "AU", and evaluates the emotion associated with the "AU" A program for deriving valence and its emotional quotient. Specifically, the facial expression action evaluation unit 3A evaluates the action intensity of each AU in the face image data as A to E. The emotional quotient calculator 3B derives the emotional valence and its emotional quotient for each AU from the evaluation result of the action intensity of each AU. The FACS estimation automatic program can be realized, for example, by using a program (for example, "Affdex" (Affectiva)) in which the results of coding by the above-described FACS-certified coder are turned into teacher data.

感情指標算出部3Cは、複数の感情指数に基づき、顔情報データの感情指標を算出する。本実施形態の感情指標算出部3Cは、各「AU」ごとの感情価の感情指数に基づいて、顔画像ごとあるいは複数の顔画像を総合した感情指標を算出する機能を有している。具体的には、感情指標算出部3Cは、後述する算出式を用いて、感情指標を算出する制御を行う。 The emotion index calculator 3C calculates the emotion index of the face information data based on a plurality of emotion indexes. The emotion index calculator 3C of the present embodiment has a function of calculating an emotion index for each face image or for a total of a plurality of face images based on the emotion index of the emotional valence for each "AU". Specifically, the emotion index calculator 3C performs control to calculate the emotion index using a calculation formula to be described later.

感情指標算出部3Cによる感情指標を算出するための演算処理は、複数の感情指数に基づく算出式を用いて行われる。これら算出式は、記憶部4に記憶されており、感情指標算出部3Cが、該算出式を用いて、顔画像等の感情指標を求める。感情指標を求める以下の算出式(1)~(13)は、一例である。
(1)Mean Positive:ΣXAU positive/nAU positive
(2)Mean Negative:ΣXAU negative/nAU negative
(3)Mean Neutral:ΣXAU neutral/nAU neotral
(4)Max Positive:Max(XAU positive
(5)Max Negative:Max(XAU negative
(6)Max Neutral:Max(XAU neutral
(7)Emotion:Max(XAU positive)―Max(XAU negative
(8)Emotion Intensity:||(Max(XAU positive),Max(XAU negative))||
(9)Total Positivity:Max(XAU positive)/{Max(XAU positive)+Max(XAU negative)+Max(XAU neutral)}
(10)Complexity:Mean Positive×Mean Negative
(11)Max Complexity:Max Positive×Max Negative
(12)Mean Intensity:Σ(image1→imageN)AUx image/N
(13)Image DependencyAUx:STDEV(XAUx,image1,XAUx,image2,...XAUx,imageN
Arithmetic processing for calculating an emotion index by the emotion index calculator 3C is performed using a calculation formula based on a plurality of emotion indexes. These calculation formulas are stored in the storage unit 4, and the emotion index calculation unit 3C uses the calculation formulas to obtain an emotion index such as a face image. The following calculation formulas (1) to (13) for obtaining emotion indices are examples.
(1) Mean Positive: ΣX AU positive /n AU positive
(2) Mean Negative: ΣX AU negative /n AU negative
(3) Mean Neutral: ΣX AU neutral /n AU neutral
(4) Max Positive: Max ( XAU positive )
(5) Max Negative: Max ( XAU negative )
(6) Max Neutral: Max (X AU neutral )
(7) Emotion: Max (X AU positive )-Max (X AU negative )
(8) Emotion Intensity: || (Max (X AU positive ), Max (X AU negative )) ||
(9) Total positivity: Max (X AU positive ) / {Max (X AU positive ) + Max (X AU negative ) + Max (X AU neutral )}
(10) Complexity: Mean Positive x Mean Negative
(11) Max Complexity: Max Positive x Max Negative
(12) Mean Intensity: Σ (image1→imageN) XAUx image /N
(13) Image DependencyAUx: STDEV(X AUx, image1 , X AUx, image2 , ... X AUx, imageN )

上式中の、XAUxはAUx(xはpositive, negative, neutralやアクションユニットの番号を示す)のコーディング結果を、nはデータの個数を、STDEVは標準偏差を求める関数を、Nは画像の数をそれぞれ示している。 In the above formula, X AUx is the coding result of AUx (x indicates positive, negative, neutral, or action unit number), n is the number of data, STDEV is the function for obtaining the standard deviation, and N is the image each number.

前述の感情指標を求める算出式(1)~(13)は、それぞれが単独で用いられてもよく、又は組み合わせて用いられてもよい。例えば、解析目的に応じて、他の算出式を、前記式(1)~(13)に加えてもよい。他の算出式としては、下記のものが挙げられる。
・Total Positive(ΣXAU positive
・Total Negative(ΣXAU negative
・Total Negativity[ Max(XAU negative)/{Max(XAU positive)+Max(XAU negative)+Max(XAU neutral)}]
Each of the calculation formulas (1) to (13) for calculating the emotion index described above may be used alone or in combination. For example, other calculation formulas may be added to the above formulas (1) to (13) depending on the purpose of analysis. Other calculation formulas include the following.
・Total positive (ΣX AU positive )
・Total Negative (ΣX AU negative )
· Total Negativity [ Max (X AU negative ) / {Max (X AU positive ) + Max (X AU negative ) + Max (X AU neutral )}]

以降の説明では、便宜上、各算出式を以下のように称する。
ポジティブ度:(4)Max Positive
ネガティブ度:(5)Max Negative
ニュートラル度:(6)Max Neutral
感情印象:(7)Emotion
感情強度:(8)Emotion Intensity
複雑度又は複雑性:(11)Max Complexity
平均強度:(12)Mean Intensity
多面度又は多面性:顔の静止画像を対象とする(13)Image DependencyAUx
フレーム依存度:顔の動画像(時系列画像)を対象とする(13)Image DependencyAUx
In the following description, each calculation formula will be referred to as follows for convenience.
Positivity: (4) Max Positive
Negative degree: (5) Max Negative
Neutral degree: (6) Max Neutral
Emotional impression: (7) Emotion
Emotion Intensity: (8) Emotion Intensity
Complexity or Complexity: (11) Max Complexity
Mean Intensity: (12) Mean Intensity
Multifacetedness or multifacetedness: (13) Image DependencyAUx for still images of faces
Frame dependency: (13) Image DependencyAUx for facial moving images (time-series images)

ポジティブ度、ネガティブ度、及びニュートラル度は、単数又は複数の顔画像におけるAUのうち、Positiveの最大値、Negativeの最大値、及びNeutralの最大値を示す指標であり、各顔画像の表情(印象)に寄与する各感情価を容易に把握できる。
感情印象は、単数又は複数の顔画像におけるポジティブ度とネガティブ度の差分を示す指標であり、表情全体としての感情価を把握できる。
感情強度は、単数又は複数の顔画像におけるポジティブ・ネガティブに関わらず感情価の総合的な強度を示す指標であり、表情全体が有する感情強度を把握できる。
The positivity, negativity, and neutrality are indices indicating the maximum positive value, the maximum negative value, and the maximum neutral value among AUs in one or more facial images. ), it is easy to grasp each emotional valence that contributes to
Emotional impression is an index that indicates the difference between positive and negative degrees in one or more facial images, and it is possible to grasp the emotional valence of the facial expression as a whole.
Emotional intensity is an index that indicates the overall intensity of emotional valence regardless of whether one or more facial images are positive or negative, and it is possible to grasp the emotional intensity of the entire facial expression.

「複雑度」は、評価対象者Hの顔に表出された表情の複雑性の度合を意味する。「表情の複雑性」は、顔に複数の感情を表現する表情が表出されていることを意味する。例えば、「Negative」に由来する「AU4」(眉を下げる動作)の動作と、「Positive」に由来する「AU12」(唇の両端を引き上げる動作)の動作とが見られる評価対象者Hでは、「複雑度」が高くなる。 "Complexity" means the degree of complexity of the facial expressions of the person H to be evaluated. "Facial complexity" means that the face has facial expressions that express multiple emotions. For example, the evaluation subject H, who can see the action of "AU4" (movement to lower the eyebrows) derived from "Negative" and the action of "AU12" (movement to raise both ends of the lips) derived from "Positive", Increased “complexity”.

「多面度」は、見る角度によって顔の印象が異なる多面性の度合を意味する。顔を様々な角度から観察することで、相手の感情を含めた印象を多面的に感じ取ることがあるが、「多面性」は、顔を異なる角度で見たとき、同じ顔でも角度によって印象が異なることを意味する。例えば、ある角度の顔と、別の角度の顔とで、「AU4」や「AU12」等の感情指数が異なっている場合、「多面度」が高くなる。 “Multifacetedness” means the degree of multifacetedness in which the impression of a face differs depending on the viewing angle. By observing the face from various angles, we can get a multifaceted impression of the other person, including their emotions. mean different things. For example, when the face at a certain angle and the face at another angle have different emotional indices such as "AU4" and "AU12", the "multifacetedness" is high.

感情指標算出工程では、前述の各算出式に、単一の顔情報データに関する複数種類の感情指数を代入して、該単一の顔情報データに関する感情指標を算出してもよい。すなわち、単一の顔情報データに関する複数種類の感情指数に基づき、感情指標を算出してもよい。例えば、後述する表1において、撮像装置C1で撮像した顔画像(単一の顔画像)について、AU6やAU4等の複数の感情指数を、前述した算出式(1)~(13)の何れかに代入することで、ポジティブ度やネガティブ度等の感情指標を算出してもよい。
この場合、感情指標を顔画像ごとに算出し、これら複数の感情指標を顔画像どうし間で比較したり、該複数の感情指標を総合したりすることで、評価対象者の顔から受ける印象の評価に用いることができる。「複数の感情指標を総合」としては、後述する「他の算出式」を用いた態様が挙げられる。
In the emotion index calculation step, a plurality of types of emotion indexes relating to the single face information data may be substituted into the respective calculation formulas described above to calculate the emotion index relating to the single face information data. That is, the emotion index may be calculated based on a plurality of types of emotion index regarding single face information data. For example, in Table 1 described later, for a face image (single face image) captured by the imaging device C1, a plurality of emotion quotients such as AU6 and AU4 are calculated using any of the above-described calculation formulas (1) to (13). By substituting in , an emotional index such as a degree of positivity or a degree of negativity may be calculated.
In this case, an emotion index is calculated for each face image, and the plurality of emotion indexes are compared between the face images, or the plurality of emotion indexes are integrated, thereby obtaining an impression received from the face of the person to be evaluated. Can be used for evaluation. As for "combining a plurality of emotion indices", there is an aspect using "another calculation formula" to be described later.

感情指標算出工程では、前述の各算出式に、複数の顔情報データに関する一種類の感情指数を代入して、該複数の顔情報データに関する感情指標を算出してもよい。すなわち、複数の顔情報データに関する一種類の感情指数に基づき、感情指標を算出してもよい。例えば、後述する表1において、撮像装置C1~C9で撮像した複数の顔画像について、AU6の一種類の感情指数を、前述した算出式(1)~(13)の何れかに代入することで、平均強度や多面度等の感情指標を算出してもよい。
この場合、複数の顔画像における表情が反映された感情指標を、評価対象者の顔から受ける印象の評価に用いることができる。
In the emotion index calculation step, one type of emotion index relating to the plurality of face information data may be substituted into each of the above-described calculation formulas to calculate the emotion index relating to the plurality of face information data. That is, the emotion index may be calculated based on one type of emotion index related to multiple pieces of face information data. For example, in Table 1 to be described later, by substituting one type of emotion quotient AU6 for a plurality of face images captured by imaging devices C1 to C9 into any of the above-described calculation formulas (1) to (13), , an emotional index such as average intensity or multifacetedness may be calculated.
In this case, it is possible to use the emotion index reflecting the facial expressions in a plurality of face images to evaluate the impression received from the evaluation subject's face.

情報提示部3Dは、感情指数算出部3Bにおいて算出した複数の顔情報データの感情指数を用いて、評価対象者Hの顔から受ける印象を評価するための対応情報を提示する。対応情報は、顔情報データと感情指数とを対応させた情報であり、感情指数算出部3Bにより求めた感情指数が、これに対応する顔情報データに関連付けられて作成されたものである。対応情報は、評価対象者Hの顔から受ける印象の評価に用いることができる。 The information presentation unit 3D presents corresponding information for evaluating the impression received from the face of the person H to be evaluated, using the emotion quotients of the plurality of face information data calculated by the emotion quotient calculation unit 3B. Corresponding information is information in which face information data and emotion quotients are associated with each other, and is created by associating the emotion quotient obtained by the emotion quotient calculator 3B with the corresponding face information data. The correspondence information can be used to evaluate the impression received from the evaluation target person H's face.

また、本実施形態の情報提示部3Dは、複数の顔情報データの感情指標を含む対応情報を提示する。対応情報が感情指標を含む場合、当該対応情報は、感情指数算出部3Bにより求めた感情指数、及び感情指標算出部3Cにより求めた感情指標が、これらと対応する顔情報データに関連付けられて作成されたものである。斯かる対応情報は感情指標を含むので、該対応情報を用いることで、評価対象者Hの顔から受ける印象の評価精度をより向上できる。 Further, the information presenting unit 3D of the present embodiment presents correspondence information including emotion indices of a plurality of face information data. When the corresponding information includes an emotional index, the corresponding information is created by associating the emotional index calculated by the emotional index calculator 3B and the emotional index calculated by the emotional index calculator 3C with the corresponding face information data. It is what was done. Since such correspondence information includes an emotion index, the evaluation accuracy of the impression received from the face of the person H to be evaluated can be improved by using the correspondence information.

本実施形態における情報提示部3Dが提示する対応情報の一例を表1に示す。感情価の感情指数は、例えば0~5のスコアで表される。表1に示すような感情指数や感情指標が記された表を、以下、「感情指数パタン」ともいう。すなわち、感情指数パタンは、対応情報の一種である。
表1中の「C1」、「C2」・・・「C9」は、それぞれ「撮像装置C1」、「撮像装置C2」・・・「撮像装置C9」(図1参照)により撮像された画像データを示す。
表1に示すように、感情指標は、1つの顔画像からでも、複数の顔画像(例えば、撮像装置C1~C9から得られる複数の顔画像)からでも求めることができる。
Table 1 shows an example of correspondence information presented by the information presentation unit 3D in this embodiment. The emotional quotient of emotional valence is represented by a score of 0 to 5, for example. A table in which emotion quotients and emotion indexes as shown in Table 1 are described is hereinafter also referred to as an "emotional quotient pattern". That is, the emotion quotient pattern is a type of correspondence information.
'C1', 'C2', . indicates
As shown in Table 1, the emotion index can be obtained from one face image or from a plurality of face images (for example, a plurality of face images obtained from imaging devices C1 to C9).

Figure 2023038870000002
Figure 2023038870000002

本実施形態の情報提示部3Dは、複数種類の感情指標をグラフ化する機能を有している。斯かるグラフも、情報提示部3Dが提示する対応情報の一種であり、該対応情報は感情指標を含んでいる。例えば、縦軸をネガティブ度とし、横軸をポジティブ度としたグラフを作成し、当該グラフに異なる条件下で取得した顔情報データの感情指標それぞれをプロットしてもよい。後述する図4及び図6に示すように、異なる評価対象者の顔情報データや化粧方法を異ならせた同一の対象者の顔情報データをグラフにプロットし、該顔情報データの顔の属性を把握することができる。
情報提示部3Dが提示するグラフには、単一の顔情報データの感情指標をプロットしてもよく、図4及び図6に示すように複数の顔情報データの感情指標それぞれをプロットしてもよい。
The information presentation unit 3D of this embodiment has a function of graphing a plurality of types of emotion indices. Such a graph is also a type of correspondence information presented by the information presentation unit 3D, and the correspondence information includes emotion indices. For example, a graph may be created in which the vertical axis is the degree of negativity and the horizontal axis is the degree of positivity, and each emotion index of face information data obtained under different conditions may be plotted on the graph. As shown in FIGS. 4 and 6, which will be described later, the face information data of different evaluation subjects and the face information data of the same subject with different makeup methods are plotted on a graph, and the facial attributes of the face information data are plotted. can grasp.
In the graph presented by the information presentation unit 3D, the emotion index of a single face information data may be plotted, or the emotion indexes of a plurality of face information data may be plotted as shown in FIGS. good.

上記の感情指数パタンやグラフ等の対応情報は、複数の角度から得られた顔情報データの感情指数又は感情指標に基づいて、評価対象者の顔の属性がどの感情価(「Positive」、「Negative」及び「Neutral」に分類されるかの評価材料とすることができる。すなわち、感情指数に基づく感情指数パタンや散布図(グラフ)によって、評価対象者の顔から受ける印象の属性を把握することができる。この場合、顔から受ける印象の属性の分類を異なる撮像角度ごとに行ってもよい。これにより、各角度から撮像した顔画像の属性を比較した印象の評価が可能である。あるいは、複数の角度を総合して顔の属性の分類を行ってもよい。この場合、複数のAUの感情指数を用いてもよく、選択された一部のAUの感情指数を用いてもよい。 The corresponding information such as the above-mentioned emotional quotient patterns and graphs is based on the emotional quotient or the emotional index of the face information data obtained from multiple angles, which emotional value ("Positive", " In other words, the attribute of the impression received from the face of the person to be evaluated is grasped from the emotion quotient pattern and scatter diagram (graph) based on the emotion quotient. In this case, the attribute of the impression received from the face may be classified for each different imaging angle, thereby making it possible to evaluate the impression by comparing the attributes of the face images captured from each angle. A plurality of angles may be combined to classify face attributes, in which case the emotion quotients of a plurality of AUs may be used, or the emotion quotients of a selected portion of the AUs may be used.

本実施形態の情報提示部3Dは、前述したように、感情指数算出部3Bや感情指標算出部3Cが算出した、複数の顔情報データの感情指数や感情指標を含む対応情報を提示する。対応情報は、複数の顔情報データの感情指数及び感情指標を纏めた感情指数パタンであってもよく、これらを反映したグラフであってもよい。
対応情報の提示は、システム1が具備する表示部6に対応情報を表示させる態様e1や、ネットワークを介してシステム1とは別体の情報端末に対応情報のデータを送信する態様e2、別体の情報端末がアクセスした汎用のウェブブラウザに対応情報を表示する態様e3等が挙げられる。ここで「別体の情報端末」は、システム1のユーザーが保有する情報端末であり、スマートフォン等のタブレット端末やPC等が挙げられる。斯かるユーザーは、システム1が提示する対応情報を用いる者全般であって、該対応情報を用いて評価対象者の顔から受ける印象の把握や、該印象の分析又は評価を実施する者等が挙げられる。より具体的には、化粧品の対面販売を行う店舗において、メイクのアドバイスを顧客に行うアドバイザーや、対応情報の提供サービスを受ける一般利用者等が挙げられる。
例えば、前記態様e2として、一般利用者が所有するスマートフォンにインストールされたアプリケーションを通じて対応情報が配信される態様等が挙げられる。
また、前記態様e3として、アドバイザーや一般利用者がタブレット端末を用いて、汎用のウェブブラウザにアクセスし、該ウェブブラウザのページに対応情報を表示させる態様等が挙げられる。
As described above, the information presentation unit 3D of the present embodiment presents the emotion quotients of a plurality of face information data and corresponding information including the emotion indexes calculated by the emotion quotient calculation unit 3B and the emotion index calculation unit 3C. The correspondence information may be an emotion quotient pattern that summarizes the emotion quotients and emotion indexes of a plurality of face information data, or may be a graph reflecting these.
The correspondence information is presented in a mode e1 in which the correspondence information is displayed on the display unit 6 provided in the system 1, a mode e2 in which the data of the correspondence information is transmitted to an information terminal separate from the system 1 via the network, example e3 in which the correspondence information is displayed on a general-purpose web browser accessed by the information terminal. Here, the “separate information terminal” is an information terminal owned by the user of the system 1, and includes a tablet terminal such as a smart phone, a PC, and the like. Such users are generally those who use the correspondence information presented by the system 1, and those who use the correspondence information to grasp the impression received from the face of the person to be evaluated, analyze or evaluate the impression, and the like. mentioned. More specifically, at a store where face-to-face sales of cosmetics are carried out, there are advisors who give makeup advice to customers, general users who receive support information provision services, and the like.
For example, the mode e2 includes a mode in which correspondence information is distributed through an application installed on a smartphone owned by a general user.
Further, as the mode e3, an advisor or a general user may use a tablet terminal to access a general-purpose web browser and display corresponding information on a page of the web browser.

本実施形態では、複数の異なる顔情報データ(顔画像)を基とする感情指数や感情指標を算出するので、当該感情指数や感情指標を用いた対応情報によって、評価対象者Hの顔から受ける多面的かつ複雑な印象をより高い精度で評価できる。
より具体的には、本実施形態のシステム1は、複数の異なる角度から取得した顔情報データを用いて感情指数算出部3Bが感情指数を算出しているので、様々な角度における顔から受ける印象を把握できる。例えば感情指数に基づき、正面から見た顔画像にはPositiveに関連する「優しさ」をより感じ、ほかの角度(例えば右側)から見た顔画像にはNegativeに関連する「厳しさ」をより強く感じる、といった印象評価が可能である。このように、本実施形態では、同じ顔でも、見る角度によって様々な表情が感じられる多面性を客観的に評価することができる。
また、複数の異なる顔情報データ(顔画像)それぞれの感情指数に基づき、複数の感情が表出された表情の複雑性を定量化できるので、苦笑いのようなPositiveとNegativeとが入り混じった表情であっても、該複雑性を客観的に評価することができる。これにより当該入り混じった表情に関し、PositiveやNegative等の感情価の寄与の程度を評価できる。
さらに、動画像データから、評価対象者Hの顔のフレーム画像を抽出した顔情報データに基づく対応情報を用いた場合〔後述する印象診断(ii)〕、経時的な感情指数の遷移を把握できるので、様々な表情の変化に伴う顔から受ける印象を精度良く把握できる。
In this embodiment, since the emotion quotient and emotion index are calculated based on a plurality of different face information data (face images), the corresponding information using the emotion quotient and the emotion index is used to receive from the face of the person to be evaluated H. Multifaceted and complex impressions can be evaluated with higher accuracy.
More specifically, in the system 1 of the present embodiment, the emotion quotient calculation unit 3B calculates the emotion quotient using face information data acquired from a plurality of different angles. can be grasped. For example, based on the emotion quotient, a face image viewed from the front has more “gentleness” associated with Positive, and a face image viewed from another angle (e.g., right side) has more “severity” associated with Negative. Impression evaluation such as strong feeling is possible. As described above, in the present embodiment, it is possible to objectively evaluate the multifacetedness of the same face, in which various expressions can be felt depending on the viewing angle.
In addition, since the complexity of a facial expression that expresses multiple emotions can be quantified based on the emotion index of each of a plurality of different face information data (face images), a mixed positive and negative facial expression such as a wry smile can be obtained. However, the complexity can be evaluated objectively. As a result, the degree of contribution of emotional valence such as Positive and Negative can be evaluated with respect to the mixed facial expressions.
Furthermore, when correspondence information based on face information data obtained by extracting a frame image of the face of person H to be evaluated from moving image data is used [impression diagnosis (ii), which will be described later], transitions in emotional quotients over time can be grasped. Therefore, it is possible to accurately grasp the impression received from the face that accompanies various changes in facial expression.

本実施形態のシステム1は、感情指数算出部3Bとともに、感情指標算出部3Cも具備するので、感情指数だけでなく、感情指標に基づいた対応情報を用いることで、評価対象者Hの顔の表情をより高精度に評価できる。すなわち、複数の顔画像の感情指標を用いて、評価対象者Hの顔から受ける印象を評価する。例えば、撮像装置C1~C9を用いて取得した複数の顔画像について、前述した算出式(1)~(13)を用いて、多面性や複雑性を総合的に評価できる。
本実施形態のシステム1は、上記のように、複数の顔情報データごとに、あるいは複数の顔情報データに、同一又は複数の表情動作単位に対応する感情指数を分析材料とし、該分析結果を総合的に評価(例:感情指標等)することで、評価対象者の顔から受ける多面的かつ複雑な印象を客観的かつ精度よく評価できる。斯かる効果は、後述する実施例にて具体的に説明する。
The system 1 of the present embodiment includes the emotional index calculator 3B as well as the emotional index calculator 3C. Facial expressions can be evaluated with higher accuracy. That is, the impression received from the evaluation target person H's face is evaluated using the emotion indices of a plurality of face images. For example, multifacetedness and complexity can be comprehensively evaluated using the above-described calculation formulas (1) to (13) for a plurality of face images acquired using the imaging devices C1 to C9.
As described above, the system 1 of the present embodiment uses emotion quotients corresponding to the same or a plurality of facial movement units for each plurality of face information data or for a plurality of face information data as analysis materials, and analyzes the analysis results. Comprehensive evaluation (e.g., emotional index, etc.) makes it possible to objectively and accurately evaluate the multifaceted and complex impression received from the subject's face. Such effects will be specifically described in the examples described later.

次に、本発明の印象評価方法を、上述した印象評価システム1において実行される制御処理(以下、「印象評価処理」と称す)を例に、図面を参照しながら説明する。以下においては、説明の便宜上、撮像装置C1~C9と制御装置2とが互いに通信可能な状態になっていることを前提として説明する。 Next, the impression evaluation method of the present invention will be described with reference to the drawings, taking as an example control processing (hereinafter referred to as "impression evaluation processing") executed in the impression evaluation system 1 described above. For convenience of explanation, the following description assumes that the imaging devices C1 to C9 and the control device 2 are in a state of being able to communicate with each other.

図2に示すように、本実施形態にかかる印象評価処理は、主に、制御部3において実行され、ステップS100における処理を行うことから始まる。以下に示す各ステップの実行主体は、制御部3のCPUである。
先ず、ステップS100において顔情報取得部5が、複数の異なる顔情報データを取得する、顔情報取得工程を実行する。本実施形態では、撮像装置C1~C9から入力された評価対象者Hの複数の顔画像データを顔情報取得部5が受け付け、これら顔画像データを記憶部4に記憶させるとともに、該複数の顔画像データをステップS200以降の処理対象として特定する。撮像装置C1~C9による顔画像の撮影は、システム1のユーザーの操作に応じて実行される。
As shown in FIG. 2, the impression evaluation process according to the present embodiment is mainly executed in the control section 3, and starts from performing the process in step S100. The CPU of the control unit 3 is the subject of execution of each step shown below.
First, in step S100, the face information acquisition unit 5 executes a face information acquisition step of acquiring a plurality of different face information data. In this embodiment, the face information acquisition unit 5 receives a plurality of face image data of the person H to be evaluated input from the imaging devices C1 to C9, stores the face image data in the storage unit 4, and stores the face image data in the storage unit 4. The image data is specified as a processing target after step S200. The photographing of the face image by the imaging devices C1 to C9 is executed according to the user's operation of the system 1. FIG.

続くステップS200において、表情動作評価部3Aが、ステップS100で取得した顔情報データ(顔画像データ)を対象に、表情動作評価工程を実行する。すなわち表情動作評価工程は、個々の顔情報データ(顔画像データ)に対し、表情筋の動きに基づく表情動作単位の動きの強度を評価する。本実施形態では、表情動作評価部3Aが、顔画像データに対し、各「AU」ごとの動作強度(動きの強度)を評価する。具体的には、表情動作評価部3Aは、撮像装置C1~C9から送信された各顔画像データに対し、FACS推定自動プログラムに従って、各「AU」に対応する顔の部位(例えば、眉周りや目元)を抽出した後、各「AU」ごとに動きの強度を評価する制御を行う。 In the subsequent step S200, the facial expression action evaluation section 3A executes the facial expression action evaluation process for the facial information data (face image data) acquired in step S100. That is, the facial expression motion evaluation step evaluates the strength of the movement of each facial expression motion unit based on the movement of facial muscles for each piece of face information data (face image data). In this embodiment, the facial expression action evaluation section 3A evaluates the action intensity (movement intensity) for each “AU” with respect to the face image data. Specifically, the facial expression action evaluation unit 3A, for each face image data transmitted from the imaging devices C1 to C9, according to the FACS estimation automatic program, facial parts corresponding to each "AU" (for example, around the eyebrows, After extracting the eyes), control is performed to evaluate the intensity of movement for each "AU".

例えば、表情動作評価部3Aは、図3に示すように、撮像装置C1により撮像された画像データに対しては「AU6:0」、「AU12:0」、「AU2:0」・・・「AU26:0」、撮像装置C2により撮像された画像データに対しては「AU6:0」、「AU12:1」、「AU2:0」・・・「AU26:0」・・・といったように、「AU」ごとに動きの強度を評価する制御を行う。図3中の感情指数パタンにおける「C1」~「C9」は、それぞれ「撮像装置C1」~「撮像装置C9」(図1参照)により撮像された画像データを示す。図3では、感情指数パタンとともに、撮像装置C1~撮像装置C9の顔画像イメージを示す。
ステップS200の表情動作評価工程を行った後、ステップS300に進む。
For example, as shown in FIG. 3, the facial expression action evaluation unit 3A assigns "AU6:0", "AU12:0", "AU2:0", . . . AU26:0", and for image data captured by the imaging device C2, "AU6:0", "AU12:1", "AU2:0" . . . Control is performed to evaluate the intensity of motion for each “AU”. “C1” to “C9” in the emotion quotient patterns in FIG. 3 indicate image data captured by “imaging device C1” to “imaging device C9” (see FIG. 1), respectively. FIG. 3 shows facial images of imaging devices C1 to C9 together with emotion quotient patterns.
After performing the facial expression action evaluation step of step S200, the process proceeds to step S300.

ステップS300では、感情指数算出部3Bが、感情指数算出工程を実行する。すなわち、表情動作評価工程の評価結果と、表情動作単位に関連付けられている感情とに基づき、表情動作単位の感情指数を算出する。本実施形態では、表情動作評価部3Aによる評価結果と、「AU」に関連付けられている感情とに基づき、感情指数算出部3Bが、顔画像データの各「AU」ごとに感情指数を算出する。また、本実施形態において「AU」に関連付けられている感情は、「Positive」、「Negative」及び「Neutral」といった感情価で示される。 At step S300, the emotion quotient calculation unit 3B executes an emotion quotient calculation step. That is, based on the evaluation result of the facial movement evaluation process and the emotion associated with the facial movement unit, the emotion quotient of the facial movement unit is calculated. In the present embodiment, the emotion quotient calculation unit 3B calculates the emotion quotient for each "AU" of the face image data based on the evaluation result by the facial action evaluation unit 3A and the emotion associated with "AU". . Emotions associated with "AU" in this embodiment are indicated by emotional valences such as "Positive", "Negative" and "Neutral".

例えば、感情指数算出部3Bは、図3に示すように、FACS推定自動プログラムに従い、「AU6」については、「感情価:Positive」、「C1:0」、「C2:0」、「C3:0」・・・「C9:0」と算出し、「AU12」については、「感情価:Positive」、「C1:0」、「C2:1」、「C3:0」・・・「C9:0」・・・「AU26」については、「感情価:Neutral」、「C1:0」、「C2:0」、「C3:0」・・・「C9:0」といったように、感情指数を算出する制御を行う。 For example, as shown in FIG. 3, the emotional quotient calculation unit 3B, according to the FACS estimation automatic program, for "AU6", "emotional valence: Positive", "C1:0", "C2:0", "C3: 0" ... "C9: 0", and for "AU12", "Emotional valence: Positive", "C1: 0", "C2: 1", "C3: 0" ... "C9: 0" ... For "AU26", the emotional quotient is set as "emotional value: Neutral", "C1: 0", "C2: 0", "C3: 0" ... "C9: 0". Control the calculation.

本実施形態では、感情指数を算出する際、「AU」に関連付けられた感情価(「Positive」、「Negative」及び「Neutral」)を用いたが、これに代えて、例えば、上記した「AU」に関連付けられた基本感情(例えば、「Happy」、「Sad」、「Angry」及び「Fear」)を用いてもよい。
ステップS300の感情指数算出工程を行った後、ステップS400に進む。
In the present embodiment, when calculating the emotional quotient, emotional valences (“Positive”, “Negative” and “Neutral”) associated with “AU” are used. ' (eg, 'Happy', 'Sad', 'Angry' and 'Fear') may be used.
After performing the emotion quotient calculation step of step S300, the process proceeds to step S400.

ステップS400では、感情指標算出部3Cが、感情指標算出工程を実行する。すなわち複数の前記感情指数に基づき、顔情報データの感情指標を算出する。本実施形態では、感情指標算出部3Cが、各「AU」ごとの感情指数に基づき、顔画像の感情指標を算出する。例えば、単一の顔情報データに関し、複数種類の感情指数に基づいて、感情指標を算出する。あるいは複数の顔情報データに関する一種類の感情指数に基づいて、感情指標を算出する。 At step S400, the emotion index calculator 3C executes an emotion index calculation process. That is, the emotion index of the face information data is calculated based on the plurality of emotion indexes. In this embodiment, the emotion index calculator 3C calculates the emotion index of the face image based on the emotion index for each “AU”. For example, for single face information data, an emotion index is calculated based on multiple types of emotion indexes. Alternatively, an emotion index is calculated based on one kind of emotion index related to a plurality of face information data.

本実施形態の感情指標算出部3Cは、記憶部4に記憶された感情指標を求める算出式〔例えば式(1)~(13)〕に従い、顔画像の感情指標を算出する制御を行う。
例えば、感情指標算出部3Cは、図3に示すように、撮像装置C1に対する、「ポジティブ度:0」、「ネガティブ度:0」、「ニュートラル度:0」、「感情印象:0」、「複雑度:0」・・・、撮像装置C9に対する、「ポジティブ度:0」、「ネガティブ度:0」、「ニュートラル度:1」、「感情印象:0」、「複雑度:0」といったように、撮像装置C1~C9ごとに得られた顔情報データの感情指数に基づく感情指標を算出する。また、感情指標算出部3Cは、「AU6」に対する「平均強度:0.00」、「多面度:0.00」、・・・「AU26」に対する「平均強度:0.00」、「多面度:0.00」といったように、「AU」毎に、複数の撮像装置C1~C9から得られた顔情報データの感情指数を総合した感情指標も算出する。
ステップS400の感情指標算出工程を行った後、ステップS500に進む。
The emotion index calculation unit 3C of the present embodiment performs control to calculate the emotion index of the face image according to the calculation formulas [for example, equations (1) to (13)] for obtaining the emotion index stored in the storage unit 4.
For example, as shown in FIG. 3, the emotion index calculation unit 3C provides "positivity: 0", "negativeness: 0", "neutrality: 0", "emotional impression: 0", ""complexity:0" . First, the emotion index is calculated based on the emotion index of the face information data obtained for each of the imaging devices C1 to C9. In addition, the emotion index calculation unit 3C calculates "average strength: 0.00" and "multifacetedness: 0.00" for "AU6", . : 0.00", an emotion index is also calculated by integrating the emotion index of the face information data obtained from the plurality of imaging devices C1 to C9 for each "AU".
After performing the emotion index calculation step of step S400, the process proceeds to step S500.

ステップS500では、情報提示部3Dが情報提示工程を実行する。すなわち、顔情報データと感情指数との対応情報を提示する。あるいは複数の顔情報データの感情指標を含む対応情報を提示する。本実施形態では、感情指数算出部3Bにより求めた感情指数と顔画像との対応情報、あるいは該感情指数及び感情指標算出部3Cにより求めた感情指標と顔画像との対応情報を情報提示部3Dが提示する。対応情報は、感情指数パタンやグラフ等であるが、どの種類の対応情報を提示するのかは、予めシステム1のユーザーにより設定される。また、対応情報の提示は、上述した態様e1~e3のうちの何れかの態様で行われる。
制御部3は、ステップS500の情報提示工程を行った後、本印象評価処理を終了する。
In step S500, the information presenting section 3D executes an information presenting process. That is, the correspondence information between the face information data and the emotion quotient is presented. Alternatively, corresponding information including emotion indices of a plurality of face information data is presented. In this embodiment, the information presentation unit 3D presents the correspondence information between the emotional quotient and the facial image obtained by the emotional quotient calculator 3B, or the correspondence information between the emotional quotient and the facial image obtained by the emotional quotient and the emotional index calculator 3C. presents. The correspondence information is an emotion quotient pattern, a graph, or the like, and the type of correspondence information to be presented is set in advance by the user of the system 1 . Also, the correspondence information is presented in one of the modes e1 to e3 described above.
After performing the information presentation step of step S500, the control unit 3 terminates this impression evaluation process.

印象評価処理を終了すると、情報提示部3Dの評価結果が記憶部4に記憶される。あるいは、表示部6や、ネットワークを介して接続された別体の情報端末(例えば、スマートフォン)等の表示部に、評価結果が表示される。 When the impression evaluation process is finished, the evaluation result of the information presenting section 3D is stored in the storage section 4. FIG. Alternatively, the evaluation result is displayed on the display unit 6 or a display unit of a separate information terminal (for example, a smart phone) connected via a network.

本実施形態では、ステップS100~ステップS500の処理を、制御装置2による制御により実行したが、該制御装置2に代えて、人手により行うことも可能である。すなわち、本実施形態の印象評価方法は、顔情報取得工程、表情動作評価工程、感情指数算出工程、感情指標算出工程、及び情報提示工程の何れか1つの工程又は2つ以上の工程を人手によって実行してもよい。
例えば、表情動作評価工程を人が実行する場合、その人が評価対象者Hの表情を目視で確認しながら、表情動作単位の動きの強度を評価する。この場合、FACS認定コーダーがマニュアルコーディングによって、顔情報取得工程と表情動作評価工程とを同時に実行する。
In the present embodiment, the processing from step S100 to step S500 is executed under the control of the control device 2, but instead of the control device 2, it is also possible to perform it manually. That is, in the impression evaluation method of the present embodiment, any one or two or more of the facial information acquisition process, the facial expression action evaluation process, the emotion quotient calculation process, the emotion quotient calculation process, and the information presentation process are performed manually. may be executed.
For example, when a person performs the facial expression motion evaluation step, the person visually confirms the facial expression of the person H to be evaluated, and evaluates the strength of the motion of each facial expression motion unit. In this case, a FACS-certified coder simultaneously executes the facial information acquisition process and the facial expression action evaluation process by manual coding.

ステップS500の情報提示工程で提示される対応情報の使用例、すなわち対応情報を用いた、評価対象者の顔から受ける印象の評価について詳述する。本実施形態の対応情報は、複数の異なる顔情報データ(顔画像)それぞれについての感情指数及び感情指標が含まれるので、該対応情報を用いた印象の評価を行う上で、評価対象者Hの顔に関する多面性及び複雑性を高い精度で評価できる。
対応情報を用いた印象の評価は、複数の感情指数に基づき印象を評価してもよく、単数の感情指数に基づき印象を評価してもよい。例えば、図3に示すAUのうち、一部のAUの感情指数を用いて印象を評価してもよい。より具体的には、図3における9枚の顔画像データについて、AU6の感情指数及びAU1の感情指数と、該感情指数に基づく多面度に基づき、印象を評価してもよい。この場合、眼や口等の顔の一部に注目した印象の評価が可能となる。顔の眼と眉等の眼の周辺部分の印象評価には、AU1~7の感情指数を用いることが有効である。口周りの印象評価には、AU10~28の感情指数を用いることが有効である。
後述する(i)及び(ii)の印象診断や化粧印象評価方法は、対応情報における眼や口等の顔の一部の感情指数や感情指標に基づき行われてもよい。
A usage example of the correspondence information presented in the information presentation step of step S500, that is, evaluation of the impression received from the face of the person to be evaluated using the correspondence information will be described in detail. Since the correspondence information of this embodiment includes the emotion quotient and the emotion index for each of a plurality of different face information data (face images), in evaluating the impression using the correspondence information, the evaluation subject H Multifacetedness and complexity of faces can be evaluated with high accuracy.
Impression evaluation using correspondence information may be based on a plurality of emotional quotients, or may be based on a single emotional quotient. For example, among the AUs shown in FIG. 3, the impression may be evaluated using the emotional quotients of some AUs. More specifically, the impression of the nine face image data in FIG. 3 may be evaluated based on the emotion quotient of AU6 and the emotion quotient of AU1, and the multifaceted degree based on the emotion quotient. In this case, it is possible to evaluate the impression by paying attention to a part of the face such as the eyes and mouth. It is effective to use the emotion indices of AU1 to 7 for the evaluation of the peripheral portions of the eyes such as the eyes and eyebrows of the face. It is effective to use the emotional index of AU 10-28 to evaluate the impression around the mouth.
The impression diagnosis and makeup impression evaluation methods (i) and (ii) described later may be performed based on the emotion index and the emotion index of a part of the face such as the eyes and mouth in the corresponding information.

対応情報を用いた印象評価の一例として、複数の異なる顔情報データの感情指数又は感情指標を用いて、評価対象者Hの顔の印象評価を行う態様が挙げられる。例えば、感情指数や感情指標を用いて、評価対象者Hの印象診断を行ってもよい。
また印象評価方法は、異なる条件下で取得した顔情報データそれぞれに基づき、複数種類の感情指標をグラフ(対応情報)にして示す工程を含んでもよい。例えば、図4に示すように、縦軸及び横軸それぞれを異なる感情指標としたグラフを作成し、評価対象者Hの感情指標の数値を該グラフ上にプロットさせたものを用いて、印象診断を行ってもよい。図4では、縦軸及び横軸には感情指標として、ポジティブ度及びネガティブ度を用いている。この場合、複数の異なる角度から顔画像データを取得し、該顔画像データから感情指標を算出して、評価対象者の印象の属性を把握できる。印象の属性は、例えば感情指数及び感情指標の何れか一方又は双方に基づき、PositiveやNegative等といった感情価や基本感情の何れに分類されるかにより把握できる。斯かる分類に、何れの感情価又は基本感情に該当しない「無表情」も含まれる。
As an example of impression evaluation using correspondence information, there is a mode of performing impression evaluation of the evaluation target person H's face using emotion indexes or emotion indexes of a plurality of different face information data. For example, an impression diagnosis of the person H to be evaluated may be performed using an emotional index or an emotional index.
Further, the impression evaluation method may include a step of showing a plurality of types of emotion indices in the form of graphs (corresponding information) based on face information data acquired under different conditions. For example, as shown in FIG. 4, a graph is created in which the vertical axis and the horizontal axis are different emotional indexes, and the numerical values of the emotional indexes of the person H to be evaluated are plotted on the graph to make an impression diagnosis. may be performed. In FIG. 4, positivity and negativity are used as emotional indices on the vertical and horizontal axes. In this case, it is possible to acquire facial image data from a plurality of different angles, calculate an emotion index from the facial image data, and comprehend the attribute of the impression of the person to be evaluated. The attribute of the impression can be grasped based on, for example, one or both of the emotional quotient and the emotional index, depending on whether the impression is classified into emotional valence or basic emotion such as Positive or Negative. Also included in such a category is "expressionlessness," which does not correspond to any emotional valence or basic emotion.

印象診断では、(i)異なる人物について、複数の異なる角度から顔画像データを取得し、該顔画像データから感情指標を算出し、該感情指標の値をプロットさせた対応情報を用いてもよい。図4の場合、人物a1と人物bとの印象の差異を把握でき、人物a1及び人物bの何れかの印象に近い表情やメイク方法を検討するための検討材料とすることができる。 In the impression diagnosis, (i) face image data of different persons are acquired from a plurality of different angles, emotion indices are calculated from the face image data, and corresponding information obtained by plotting the values of the emotion indices may be used. . In the case of FIG. 4, the difference in impression between the person a1 and the person b can be grasped, and it can be used as a study material for studying the expression and makeup method that are close to the impression of either the person a1 or the person b.

また印象診断では、(ii)同一人物について、異なるタイミングで、複数の異なる角度から顔画像データを取得し、該顔画像データから感情指標を算出して、該感情指標の数値をプロットさせた対応情報を用いてもよい。「異なるタイミングで顔画像データを取得する」とは、経時的に同一人物の顔画像データを取得することや、評価対象者が置かれる環境や状況を異ならせて、同一人物の顔画像データを取得することを包含する。図4の場合、顔画像データを取得した同一人物の感情指標の値a1,a2を分布させており、該顔画像データを取得したときの状況が同一人物の印象(図4の点a1,a2)にどのような変化をもたらしたかを把握できる。 In the impression diagnosis, (ii) face image data of the same person is acquired from a plurality of different angles at different timings, an emotion index is calculated from the face image data, and the numerical value of the emotion index is plotted. Information may be used. “Obtaining facial image data at different timings” means acquiring facial image data of the same person over time, or obtaining facial image data of the same person by changing the environment and situation in which the subject of evaluation is placed. Including getting. In the case of FIG. 4, the emotion index values a1 and a2 of the same person whose face image data was acquired are distributed, and the situation when the face image data was acquired indicates the impression of the same person (points a1 and a2 in FIG. 4). ) can be understood.

(ii)の印象診断については、顔情報取得工程で経時的に同一人物の顔画像データを取得し、これに基づく感情指数や感情指標を算出し、これを含む対応情報を用いて印象評価を行う。これにより、経時的に変化する評価対象者Hの印象(表情)を解析できる。この場合、評価対象者Hの顔情報データ(顔画像データ)は、異なる角度から取得されたものであってもよく、1つの角度から取得されたものであってもよい。
例えば、図5に示すように、1つの角度(図5では正面)から取得された顔画像データを経時的に取得し、これら顔画像データから感情指数や感情指標を算出する。情報提示工程(印象診断)では、この算出した感情指数や感情指標を、図4等のグラフにプロットさせることで、経時的に変化する印象を把握できる(図4の点a1,a2)。
As for the impression diagnosis of (ii), face image data of the same person is acquired over time in the face information acquisition step, an emotional index and an emotional index are calculated based on this, and impression evaluation is performed using corresponding information including this. conduct. As a result, the impression (expression) of the person to be evaluated H that changes over time can be analyzed. In this case, the face information data (face image data) of the person to be evaluated H may be obtained from different angles or may be obtained from one angle.
For example, as shown in FIG. 5, face image data acquired from one angle (the front in FIG. 5) is acquired over time, and the emotion quotient and emotion index are calculated from the face image data. In the information presentation step (impression diagnosis), by plotting the calculated emotional quotients and emotional indexes on graphs such as FIG. 4, it is possible to grasp impressions that change over time (points a1 and a2 in FIG. 4).

また、顔画像データを経時的に取得する場合、複数台の動画像撮像装置で撮像することも可能である。この場合、多面性をより高精度に評価する観点から、撮像装置C1~C9(図1参照)のように、評価対象者の顔を複数の角度から撮像することが好ましい。また、各動画像撮像装置ごとに取得された動画像から複数のフレーム画像を抜き出し、このフレーム画像に基づいて印象評価を行ってもよい。このように複数の角度から撮像された複数のフレーム画像を用いた印象評価を行うことができるので、より精度の高い評価結果を得ることが可能になる。
後述する実施例6では、動画像から抜き出した複数のフレーム画像を用いて印象評価を行ったが、例えば、静止画像を撮像する撮像装置(例えば、図1の撮像装置C1~C9)を用いて経時的に撮像された複数の静止画像を用いて印象評価を行ってもよい。
Moreover, when acquiring face image data over time, it is also possible to image with a plurality of moving image capturing devices. In this case, from the viewpoint of evaluating multifacetedness with higher accuracy, it is preferable to image the face of the person to be evaluated from a plurality of angles, as with imaging devices C1 to C9 (see FIG. 1). Alternatively, a plurality of frame images may be extracted from the moving images acquired by each moving image capturing device, and impression evaluation may be performed based on these frame images. Since impression evaluation can be performed using a plurality of frame images captured from a plurality of angles in this way, it is possible to obtain more accurate evaluation results.
In Example 6, which will be described later, impression evaluation was performed using a plurality of frame images extracted from a moving image. Impression evaluation may be performed using a plurality of still images captured over time.

本印象診断(ii)の精度をより向上させる観点から、顔情報取得工程で経時的に取得される同一人物の顔画像データは、評価対象者の表情に変化が生じたタイミングで取得されることが好ましい。これにより、表情の変化に寄与した要因を含め、評価対象者の顔から受ける印象を高精度に分析できる。斯かる評価対象者の表情には、無表情も含まれる。例えば、動画から複数のフレーム画像を抽出する場合、評価対象者の表情に変化が表れた顔画像を選択することで、ポジティブ度、ネガティブ度、又は複雑性等の感情指標の経時的な遷移を高精度に把握できる。印象診断(ii)に供する顔画像は、経時的に取得された複数の顔画像(動画を含む)から人為的に選択してもよく、経時的に取得された複数の顔画像から、差分抽出等の公知の技術によって抽出(選択)してもよい。 From the viewpoint of further improving the accuracy of this impression diagnosis (ii), the face image data of the same person acquired over time in the face information acquisition step should be acquired at the timing when the facial expression of the person to be evaluated changes. is preferred. This makes it possible to analyze with high accuracy the impression received from the subject's face, including the factors that contributed to the change in facial expression. Expressions of such persons to be evaluated include expressionlessness. For example, when extracting multiple frame images from a video, by selecting facial images that show changes in the facial expressions of the person being evaluated, we can determine the temporal transition of emotional indicators such as positivity, negativity, or complexity. It can be grasped with high accuracy. The facial image to be subjected to impression diagnosis (ii) may be artificially selected from a plurality of facial images (including moving images) acquired over time. You may extract (select) by well-known techniques, such as.

さらに印象診断は、(iii)異なる化粧の印象を比較する化粧印象評価方法に用いることができる。化粧印象評価方法は、化粧を施す前の素顔及び/又は化粧を施した化粧顔それぞれについて、印象評価方法を行い、該素顔と該化粧顔との表情の印象を比較するか、又は化粧を異ならせた該化粧顔どうしの表情の印象を比較する。
例えば、図6に示すように、同一人物の素顔b1と化粧顔b2との感情指標の数値をグラフ上にプロットさせ、印象診断を行ってもよい。また、同一人物の異なる化粧顔b2,b3の感情指標の数値をグラフ上にプロットさせ、印象診断を行ってもよい。図6に示すグラフでは、図4と同様に、縦軸及び横軸に、ポジティブ度及びネガティブ度の感情指標を用いている。斯かる化粧印象評価方法により、化粧がもたらす印象を容易に把握でき、所望の印象となるような化粧の方法を容易に提案できる。また、化粧印象評価方法の評価結果を、化粧のカウンセリングに活用できる。特に眼や口等の顔の一部における感情指数や感情指標に基づく印象の評価をした場合は、ポイントメイクのカウンセリングに活用できる。
Furthermore, the impression diagnosis can be used in (iii) a makeup impression evaluation method that compares different makeup impressions. In the makeup impression evaluation method, the impression evaluation method is performed for each of the bare face before applying makeup and/or the makeup face with makeup, and the impression of the facial expression of the bare face and the makeup face is compared, or if the makeup is different. The impressions of the facial expressions of the put-up faces are compared.
For example, as shown in FIG. 6, an impression diagnosis may be performed by plotting numerical values of emotion indices of the same person's natural face b1 and makeup face b2 on a graph. In addition, impression diagnosis may be performed by plotting the numerical values of the emotion indices of different makeup faces b2 and b3 of the same person on a graph. In the graph shown in FIG. 6, similarly to FIG. 4, the vertical axis and horizontal axis use the emotion indices of positivity and negativity. With such a makeup impression evaluation method, it is possible to easily grasp the impression caused by makeup, and to easily propose a makeup method that gives a desired impression. In addition, the evaluation result of the makeup impression evaluation method can be utilized for makeup counseling. In particular, evaluation of the impression based on the emotional index or the emotional index of a part of the face such as the eyes and mouth can be used for point makeup counseling.

図4~図6に示した印象診断は、感情指標としてポジティブ度及びネガティブ度を用いるものであったが、印象診断には、他の感情指標を用いてもよい。印象診断に用いられる感情指標は、その診断目的に応じて適宜用いることができる。評価対象者Hの属性(例えば、性別や年齢)や要望等に応じて、任意の感情指標(例えば、ニュートラル度)を用いてもよい。また、属性等の分布を示すグラフを用いる場合、横軸(x軸)及び縦軸(y軸)における感情指標や感情指数の組み合わせを異ならせてもよい。 Although the impression diagnosis shown in FIGS. 4 to 6 uses positivity and negativity as emotion indexes, other emotion indexes may be used for impression diagnosis. The emotion index used for impression diagnosis can be appropriately used according to the purpose of the diagnosis. An arbitrary emotion index (for example, neutrality) may be used according to the attributes (for example, sex and age) of the person to be evaluated H, requests, and the like. Also, when using a graph showing the distribution of attributes, etc., the horizontal axis (x-axis) and the vertical axis (y-axis) may have different emotion indexes or different combinations of emotion indexes.

以上、本発明をその好ましい実施形態に基づき説明したが、本発明は上述した実施形態に限定されない。
上述した実施形態におけるシステム1は、感情指標算出部3Cを具備するものであったが、該感情指標算出部3Cを具備していなくともよい。同様に、本発明の印象評価方法は、感情指標算出工程を具備していなくともよい。
また、上述した実施形態におけるシステム1は、情報提示部3Dを具備するものであったが、該情報提示部3Dを具備していなくともよい。この場合、感情指数算出部3Bにより算出した感情指数又は感情指標算出部3Cにより算出した感情指標を、別の情報端末に出力できる。この場合、感情指数又は感情指標を用いた対応情報の作成を、例えばヒトが別の情報端末を用いて実行してもよい。
Although the present invention has been described above based on its preferred embodiments, the present invention is not limited to the above-described embodiments.
Although the system 1 in the above-described embodiment includes the emotion index calculator 3C, it does not have to include the emotion index calculator 3C. Similarly, the impression evaluation method of the present invention may not include the emotion index calculation step.
Moreover, although the system 1 in the above-described embodiment includes the information presentation section 3D, the information presentation section 3D may not be provided. In this case, the emotional quotient calculated by the emotional quotient calculator 3B or the emotional index calculated by the emotional quotient calculator 3C can be output to another information terminal. In this case, the corresponding information using the emotion quotient or the emotion index may be created by a human using another information terminal, for example.

また、前記態様e3により対応情報を提示する場合、制御装置2には、システム1の専用のソフトウェアやハードウェア、オンプレミス型のサーバー構成等といったOS(Operating System)等を設けずに、クラウドサーバーによるSaaS(Software as a Service)、Paas(Platform as a Service)、IaaS(Infrastructure as a Service)を用いてもよい。斯かる構成により、制御装置2の情報提示部3Dが導出した対応情報を、汎用のウェブブラウザを介してシステム1のユーザーに提供することができる。すなわち、システム1から出力された感情指数パタン(図3参照)や感情指標のグラフ(図4や図6参照)を、ウェブブラウザを介してユーザーが所有する別体の情報端末が備える表示部に表示させることが可能となる。 In addition, when presenting the corresponding information according to the aspect e3, the control device 2 is not provided with an OS (Operating System) such as dedicated software or hardware for the system 1, an on-premise server configuration, etc., but a cloud server SaaS (Software as a Service), Paas (Platform as a Service), and IaaS (Infrastructure as a Service) may be used. With such a configuration, the correspondence information derived by the information presentation unit 3D of the control device 2 can be provided to the user of the system 1 via a general-purpose web browser. That is, the emotional quotient pattern (see FIG. 3) and the emotional quotient graph (see FIGS. 4 and 6) output from the system 1 are displayed on the display unit of the separate information terminal owned by the user via the web browser. It is possible to display.

上述した実施形態では、感情指数パタンの生成等に、FACS推定自動プログラム(例えば、「Affdex」(Affectiva社))を利用したが、例えば、いわゆる3D画像撮像解析装置(VECTRA(Canfield社))を用いることも可能である。この場合、評価対象者の顔について、3D画像撮像解析装置による3次元形状解析を行い、その解析結果に基づいて感情指数パタンを生成すればよい。また、公知の画像認識技術を利用して、顔のしわの位置及び強度(例えば、深さ)を抽出し、その抽出されたしわ情報等に基づいて感情指数パタンを生成することも可能である。 In the above-described embodiment, an automatic FACS estimation program (e.g., "Affdex" (Affectiva)) is used for generating emotion quotient patterns, etc., but for example, a so-called 3D image capturing analysis device (VECTRA (Canfield)) is used. It is also possible to use In this case, the face of the person to be evaluated may be subjected to three-dimensional shape analysis by a 3D image capturing and analysis device, and an emotion quotient pattern may be generated based on the analysis result. It is also possible to extract the position and intensity (e.g., depth) of facial wrinkles using known image recognition technology, and generate an emotion quotient pattern based on the extracted wrinkle information. .

以下、本発明を実施例によりさらに具体的に説明するが、本発明は斯かる実施例に限定されるものではない。 EXAMPLES Hereinafter, the present invention will be described in more detail with reference to Examples, but the present invention is not limited to such Examples.

(実施例1)
実施例1では、図1に示すシステム1を用いて、評価対象者Hである対象者W及び対象者Mの各顔から受ける印象を比較して評価した。対象者W及び対象者Mの各顔画像は、何れも「素顔(化粧無し)」かつ「無表情」の状態で撮影することにより得た。斯かる顔画像は、図1に示す各撮像装置C1~C9を用いて撮影した。図7に対象者Wの感情指数パタンを、図8に対象者Mの感情指数パタンを示す。
(Example 1)
In Example 1, the system 1 shown in FIG. 1 was used to compare and evaluate the impression received from each face of the subject W and the subject M who are the subject H of evaluation. Each face image of the subject W and the subject M was obtained by photographing in the state of "bare face (without makeup)" and "expressionless". Such facial images were taken using the imaging devices C1 to C9 shown in FIG. FIG. 7 shows the emotional quotient pattern of the subject W, and FIG. 8 shows the emotional quotient pattern of the subject M. As shown in FIG.

図7に示すように、「素顔(化粧無し)」かつ「無表情」の状態における対象者Wの顔の表情は、「ポジティブ度の平均強度:0.44」、「ネガティブ度の平均強度:0.11」、「感情印象の平均強度:0.33」、「感情印象の多面度:0.50」及び「複雑度の平均強度:0.11」という結果であった。 As shown in FIG. 7, the facial expression of the subject W in the state of "real face (no makeup)" and "expressionless" is "average intensity of positivity: 0.44" and "average intensity of negativity: 0.44". 0.11", "Average intensity of emotional impression: 0.33", "Multifacetedness of emotional impression: 0.50", and "Average intensity of complexity: 0.11".

図8に示すように、「素顔(化粧無し)」かつ「無表情」の状態における対象者Mの顔の表情は、「ポジティブ度の平均強度:0.11」、「ネガティブ度の平均強度:0.33」、「感情印象の平均強度:-0.22」、「感情印象の多面度:0.83」及び「複雑度の平均強度:0」という結果であった。 As shown in FIG. 8, the facial expressions of the subject M in the state of "real face (no makeup)" and "expressionless" are "average intensity of positivity: 0.11" and "average intensity of negativity: 0.11". 0.33", "Average intensity of emotional impression: -0.22", "Multifacetedness of emotional impression: 0.83", and "Average intensity of complexity: 0".

図9(a)~(c)は、図7及び図8の各感情指数パタンを用いて作成された、対象者W及び対象者Mの顔の印象を評価するためのグラフを示したものである。なお、図中の、点Wは図7の感情指数パタンから導き出された対象者Wの感情指標の値を、また、点Mは図8の感情指数パタンから導き出された対象者Mの感情指標の値をそれぞれ示している。 FIGS. 9(a) to 9(c) show graphs for evaluating facial impressions of subjects W and M, which are created using the emotion quotient patterns of FIGS. 7 and 8. FIG. be. In the figure, the point W is the emotional index value of the subject W derived from the emotional index pattern of FIG. 7, and the point M is the emotional index of the subject M derived from the emotional index pattern of FIG. , respectively.

図9(a)に示すように、x軸を「ポジティブ度の平均強度」、y軸を「ネガティブ度の平均強度」としたグラフによれば、原点0から点Wまでの距離と点Mまでの距離とが略同じであることが読み取れる。このため、感情(感情価)を示す強度(感情強度)は、対象者W及び対象者Mにおいて同程度、といった結果を導き出すことが可能である。また、点W及び点Mの位置を比較すると、点Wは点Mよりもポジティブの感情寄りの位置にプロットされているため、対象者Wの顔は、比較的「柔らかい印象」の顔立ち、といった印象評価をすることが可能である。一方、点Mは点Wよりもネガティブの感情寄りの位置にプロットされているため、対象者Mの顔は、比較的「きりっとした印象」の顔立ち、といった評価をすることができる。 As shown in FIG. 9(a), according to the graph in which the x-axis is "average intensity of positivity" and the y-axis is "average intensity of negativity", the distance from the origin 0 to point W and point M It can be read that the distance is approximately the same as the distance of Therefore, it is possible to derive the result that the intensity (emotional intensity) indicating emotion (emotional valence) is about the same for the subject W and the subject M. In addition, when comparing the positions of point W and point M, point W is plotted at a position closer to positive emotions than point M, so the subject W's face has a relatively "soft impression". Impression evaluation is possible. On the other hand, since the point M is plotted at a position closer to negative emotions than the point W, the face of the subject M can be evaluated as having a relatively "clear impression".

このような評価結果から、図9(a)のグラフからは、対象者W及び対象者Mの各顔のから受ける印象として、感情強度は同程度で、対象者Wの顔は比較的「柔らかい印象」の顔立ち、対象者Mの顔は「きりっとした印象」の顔立ち、といった客観的な評価結果を得ることが可能である。 Based on these evaluation results, from the graph in FIG. 9A, it can be seen that the emotional intensity of each face of the subject W and the subject M is about the same, and the face of the subject W is relatively "soft." It is possible to obtain an objective evaluation result such as "impression" of the face and "clear impression" of the subject M's face.

図9(b)に示すように、x軸を「感情印象の平均強度」、y軸を「複雑度の平均強度」としたグラフによれば、点W及び点Mの位置を比較すると、感情印象(内面印象)及び複雑度の何れにおいても、点Wは点Mよりも高い値となる位置にプロットされている。このため、対象者Wの顔は、対象者Mの顔よりも、「複雑性内面印象」が高めな顔立ち、例えば、見る角度によって受ける内面印象の度合いが高めな顔立ち、といった客観的な評価結果を得ることができる。 As shown in FIG. 9B, according to the graph in which the x-axis is "average intensity of emotional impression" and the y-axis is "average intensity of complexity", when the positions of points W and M are compared, emotional The point W is plotted at a position where the value is higher than the point M in both the impression (inner impression) and the complexity. For this reason, the subject W's face has a higher "complex inner impression" than the subject M's face, for example, a face with a higher degree of inner impression depending on the viewing angle. can be obtained.

図9(c)に示すように、x軸を「感情印象の平均強度」、y軸を「感情印象の多面度」としたグラフによれば、点W及び点Mの位置を比較すると、感情印象の多面度において、点Mは点Wよりも高い値となる位置にプロットされている。このため、対象者Mの顔は、対象者Wの顔よりも、「多面性内面印象」が高めな顔立ち、例えば、「表情が豊かに見える印象」の顔立ち、といった客観的な評価結果を得ることが可能である。 As shown in FIG. 9C, according to the graph in which the x-axis is "average intensity of emotional impression" and the y-axis is "multifaceted degree of emotional impression", comparing the positions of point W and point M shows that emotional The point M is plotted at a position where the value of the multifaceted impression is higher than that of the point W. Therefore, an objective evaluation result is obtained such that the face of the subject M has a higher ``multifaceted inner impression'' than the face of the subject W, for example, a face with an ``impression that looks rich in expression''. Is possible.

(実施例2)
実施例2では、化粧印象評価方法を行った。図10は、対象者Wの素顔の顔画像、及び対象者Wの化粧顔の顔画像それぞれに基づく感情指数パタンをそれぞれ示したものである。化粧を施す前の素顔と、化粧を施した化粧顔との各顔画像は、何れも、自然な表情で撮影した。図10の顔画像は、撮像装置C1~C9(図1参照)に対応している。図10の化粧顔の化粧(以下、「メイク1」と称す)は、全体的に濃いめで、「ファンデーション:比較的マットで明るめ」、「アイブロウ:比較的濃い色で太め」、「アイメイク:目の周囲の陰影が強め」、「リップメイク:比較的濃い赤または桃色」となるような化粧法によるものであった。
(Example 2)
In Example 2, a makeup impression evaluation method was performed. FIG. 10 shows emotion quotient patterns based on the face image of the subject W with a bare face and the face image of the subject W with makeup. Each face image of a real face before applying makeup and a face with makeup applied was photographed with a natural expression. The face images in FIG. 10 correspond to the imaging devices C1 to C9 (see FIG. 1). The makeup of the makeup face in FIG. 10 (hereinafter referred to as “makeup 1”) is dark overall, “foundation: relatively matte and bright,” “eyebrow: relatively dark and thick,” and “eye makeup: The shadows around the eyes are strong" and "lip makeup: relatively dark red or pink".

図10に示すように、「素顔」の対象者Wの顔の表情は、例えば、「ポジティブ度の平均強度:0.44」、「ネガティブ度の平均強度:0.11」、「複雑度の平均強度:0.11」及び「感情印象の多面度:0.5」となっており、「メイク1」を施した対象者Wの顔の表情は、「ポジティブ度の平均強度:0.22」、「ネガティブ度の平均強度:0.44」、「複雑度の平均強度:0」及び「感情印象の多面度:1.2」となっている。
図10に示すように、「素顔」のときの感情指数パタンと、「メイク1」を施したときの感情指数パタンとを比較すると、「素顔」に「メイク1」を施した場合、「複雑度の平均強度」が「0.11」から「0」(差分:-0.11)に、また、「ポジティブ度の平均強度」が「0.44」から「0.22」(差分:-0.22)」にそれぞれ低下しているのに対し、「感情印象の多面度」が「0.50」から「1.2」(差分:+0.7)に上昇していることが読み取れる。
As shown in FIG. 10, the facial expressions of the subject W with the “real face” are, for example, “average intensity of positivity: 0.44”, “average intensity of negativity: 0.11”, “complexity The facial expression of the subject W who applied “Makeup 1” was “average intensity of positivity: 0.22”. ', 'average intensity of negativity: 0.44', 'average intensity of complexity: 0', and 'multifaceted degree of emotional impression: 1.2'.
As shown in FIG. 10, comparing the emotion quotient pattern when the "bare face" is applied with the emotion quotient pattern when "makeup 1" is applied, it is found that when "makeup 1" is applied to the "bare face", "complex "Average intensity of positivity" from "0.11" to "0" (difference: -0.11), and "Average intensity of positivity" from "0.44" to "0.22" (difference: - 0.22)”, while the “multifaceted degree of emotional impression” increased from “0.50” to “1.2” (difference: +0.7).

このような結果から、「メイク1」による化粧法では、「複雑度の平均強度」及び「ポジティブ度の平均強度」が低下した分、「きりっとした印象」になったうえ、「感情印象の多面度」が上昇した分、「多面的な印象」が強調された、といったような客観的な評価をすることが可能である。 From these results, in the makeup method of "Makeup 1", the "average intensity of complexity" and the "average intensity of positivity" decreased, resulting in a "clear impression" and a "multifaceted emotional impression". It is possible to make an objective evaluation, for example, that the "multifaceted impression" is emphasized by the amount that the "degree" is increased.

次に、上記した対象者Wに「メイク1」とは異なる化粧を施した場合の比較例について図11及び図12を参照しつつ説明する。
図11は、「メイク1」とは異なる化粧(以下、「メイク2」と称す)を施した対象者Wの顔画像と、該顔画像に基づく感情指数パタンを示したものである。図12は「メイク1」及び「メイク2」とは異なる化粧(以下、「メイク3」と称す)を施した対象者Wの顔画像(図示省略)に基づく感情指数パタンを示したものである。
実施例2にかかる「メイク2」及び「メイク3」について説明する。本実施例2にかかる「メイク2」は、全体的に薄めで、「ファンデーション:薄め」、「アイブロウ:比較的薄い色で細め」、「アイメイク:目の周囲の陰影が弱め」、「リップメイク:比較的薄い赤または桃色」となるような化粧法によるものである。また、「メイク3」は、「ファンデーション」、「アイブロウ」、「アイメイク」及び「リップメイク」の全てにおいて、「メイク1」及び「メイク3」の中間の化粧濃さとなるような化粧法によるものである。
Next, a comparative example in which makeup different from "makeup 1" is applied to the subject W described above will be described with reference to FIGS. 11 and 12. FIG.
FIG. 11 shows a face image of a subject W who has makeup different from "makeup 1" (hereinafter referred to as "makeup 2") and emotion quotient patterns based on the face image. FIG. 12 shows emotion quotient patterns based on the face image (not shown) of the subject W who has applied makeup different from "makeup 1" and "makeup 2" (hereinafter referred to as "makeup 3"). .
Makeup 2” and “makeup 3” according to the second embodiment will be described. “Makeup 2” according to the second embodiment is generally thin, “foundation: thin”, “eyebrow: relatively light color and thin”, “eye makeup: weak shadow around the eyes”, “lip Make-up: It is based on a make-up method that results in a relatively light red or pink color. In addition, "Makeup 3" is based on a makeup method such that all of "Foundation", "Eyebrow", "Eye Makeup" and "Lip Makeup" have a makeup density intermediate between "Makeup 1" and "Makeup 3". It is.

「メイク2」及び「メイク3」を施した各化粧顔の顔画像は、上記した「素顔」及び「メイク1」を施した顔画像と同様に、何れも、自然な表情で撮像した。これら顔画像は、撮像装置C1~C9にそれぞれ対応したものとなっており、撮像装置C1~C9(図1参照)を用いて撮像した。 The facial images of each of the makeup faces with "Makeup 2" and "Makeup 3" were both captured with a natural expression in the same manner as the face images with "Normal face" and "Makeup 1" described above. These face images correspond to the imaging devices C1 to C9, respectively, and were captured using the imaging devices C1 to C9 (see FIG. 1).

図11に示すように、「メイク2」を施した対象者Wの顔の表情は、例えば、「ポジティブ度の平均強度:0.333・・・」、「ネガティブ度の平均強度:0」、「複雑度の平均強度:0」及び「感情印象の多面度:0.707・・・」という結果であった。 As shown in FIG. 11, the facial expressions of the subject W who applied the “makeup 2” are, for example, “average intensity of positivity: 0.333 . . . ”, “average intensity of negativity: 0”, The results were "average intensity of complexity: 0" and "multifaceted degree of emotional impression: 0.707...".

図12に示すように、「メイク3」を施した対象者Wの顔の表情は、例えば、「ポジティブ度の平均強度:0.67」、「ネガティブ度の平均強度:0」、「複雑度の平均強度:0」及び「感情印象の多面度:0.87」という結果であった。 As shown in FIG. 12 , the facial expressions of the subject W who applied “makeup 3” are, for example, “average intensity of positivity: 0.67”, “average intensity of negativity: 0”, “complexity 0” and “multifaceted degree of emotional impression: 0.87”.

図13(a)~(c)は、図11及び図12の各感情指数パタンを用いて作成された、化粧印象評価方法による評価結果である。具体的には、異なる化粧顔の対象者Wの顔から受ける印象を評価するためのグラフである。
図13(a)に示すように、x軸を「ポジティブ度の平均強度」、y軸を「ネガティブ度の平均強度」としたグラフによれば、「素顔」に「メイク1」を施した場合、「ポジティブ度の平均強度」が低下(「0.44」→「0.22」)しているのに対し、「ネガティブ度の平均強度」が上昇(「0.11」→「0.44」)していることが読み取れる。
FIGS. 13A to 13C show evaluation results by the makeup impression evaluation method, which are created using the emotion quotient patterns of FIGS. 11 and 12. FIG. Specifically, it is a graph for evaluating the impression received from the face of the subject W with a different makeup face.
As shown in FIG. 13A, according to a graph in which the x-axis is "average intensity of positivity" and the y-axis is "average intensity of negativity", when "makeup 1" is applied to "real face" , while the “average intensity of positivity” decreased (“0.44” → “0.22”), the “average intensity of negativity” increased (“0.11” → “0.44 ”).

また、「素顔」に「メイク2」を施した場合では、「ポジティブ度の平均強度」及び「ネガティブ度の平均強度」の何れもが低下(「ポジティブ度の平均強度:0.44→0.333・・・」、「ネガティブ度の平均強度:0.11→0」)していることがわかる。
さらに、「素顔」に「メイク3」を施した場合では、「ポジティブ度の平均強度」が上昇(「0.44」→「0.67」)しているのに対し、「ネガティブ度の平均強度」が低下(「0.11」→「0」)していることが読み取れる。
In addition, when "makeup 2" was applied to the "real face", both the "average intensity of positivity" and the "average intensity of negativity" decreased ("average intensity of positivity: 0.44→0. 333 .
Furthermore, when “makeup 3” was applied to the “real face”, the “average intensity of positivity” increased (“0.44” → “0.67”), whereas the “average It can be read that the strength” has decreased (“0.11”→“0”).

このような評価結果から、例えば、「きりっとした印象」にする場合は「メイク1」、「ニュートラルな印象」(落ち着いた印象)にする場合は「メイク2」、「柔らかい印象」にする場合は「メイク3」とったような提案をすることが可能である。 From these evaluation results, for example, "Makeup 1" is used to create a "clear impression", "Makeup 2" is used to create a "neutral impression" (calm impression), and "Soft impression" is used. It is possible to make a proposal such as "Make 3".

また、図13(b)に示すように、x軸を「ポジティブ度の平均強度」、y軸を「複雑度の平均強度」としたグラフによれば、「素顔」に対して、「メイク1」~「メイク3」の何れのメイクを施しても、「複雑度の平均強度」が「0.11」から「0」に低下していることが読み取れる。すなわち、このような評価結果から、「素顔」に「メイク1」~「メイク3」の何れかを施すと、対象者Wの内面的な印象を左右する「複雑性」(複雑度)が低下する、といったような評価をすることが可能である。 Further, as shown in FIG. 13B, according to a graph in which the x-axis is "average intensity of positivity" and the y-axis is "average intensity of complexity", "makeup 1 ” to “makeup 3”, the “average intensity of complexity” decreases from “0.11” to “0”. That is, from such an evaluation result, applying any of “Makeup 1” to “Makeup 3” to the “bare face” reduces the “complexity” (complexity) that influences the inner impression of the subject W. It is possible to make an evaluation such as

図10~12の各感情指数パタンを分析すると、「素顔」の顔画像のうち、撮像装置C6に対応する顔画像のみが「複雑度:1」になっており、それ以外の顔画像(「素顔」、「メイク1」~「メイク3」の各顔画像)が全て「複雑度:0」になっていることが原因と推定される。換言すれば、「素顔」にメイクを施すことによって、撮像装置C6に対応する顔画像の「ネガティブ度」が「0」に低下していることが直接の原因となっていることがわかる(上記算出式の「Max Negative」(ネガティブ度)、Max Complexity(複雑度)及びMean Intensity(平均強度)等参照)。 Analyzing each emotion quotient pattern in FIGS. 10 to 12, among the “real face” face images, only the face image corresponding to the imaging device C6 has “complexity: 1”, and the other face images (“ It is presumed that the cause is that all face images of "real face" and "makeup 1" to "makeup 3" have "complexity: 0". In other words, it can be seen that the direct cause is that the "negative degree" of the face image corresponding to the imaging device C6 is lowered to "0" by applying makeup to the "real face" (see above). See "Max Negative," "Max Complexity," "Mean Intensity," etc. in the calculation formula).

上記の評価結果に基づいて、「複雑性」(複雑度)が低下しない化粧法を提案することも可能である。例えば、撮像装置C6に対応する顔画像のうち、「Negative」(感情価)に由来する「AU2」(眉の外側を上げる動作)や「AU4」(眉を下げる動作)等を強調するようなメイクを提案することができる。これにより、「ネガティブ度」の値の低下を有効に防止することができ、その結果、対象者Wの内面印象を高めることが可能になる。 Based on the above evaluation results, it is also possible to propose a makeup method that does not reduce the "complexity" (complexity). For example, out of the face images corresponding to the image pickup device C6, an image that emphasizes "AU2" (movement to raise the outside of the eyebrows) or "AU4" (movement to lower the eyebrows) derived from "Negative" (emotional valence). You can suggest make-up. As a result, it is possible to effectively prevent the value of the "negative degree" from decreasing, and as a result, it is possible to enhance the subject's W internal impression.

この場合、追加的に「Positive」(感情価)に由来する「AU12」(唇両端を引き上げる動作)を強調するメイクを提案することも可能である。すなわち、上記した「Mean Negative」に加えて、「Mean Positive」の値も上昇するため、その結果、「複雑度」の値をさらに上昇させることができる。このため、「AU2」や「AU4」に加え、「AU12」も強調するメイクを施すことによって、対象者Wの内面印象をさらに高めることが可能になる(上記算出式の「Max Negative」(ネガティブ度)、Max Complexity(複雑度)及びMean Intensity(平均強度)等参照)。 In this case, it is also possible to additionally propose makeup that emphasizes "AU12" (movement to pull up both ends of the lips) derived from "Positive" (emotional valence). That is, in addition to the above-described "Mean Negative", the value of "Mean Positive" also increases, and as a result, the value of "Complexity" can be further increased. Therefore, by applying makeup that emphasizes “AU12” in addition to “AU2” and “AU4”, it is possible to further enhance the inner impression of the subject W (“Max Negative” in the above calculation formula). intensity), Max Complexity and Mean Intensity, etc.).

次に、図13(c)のグラフについて説明する。図13(c)に示すように、x軸を「ポジティブ度の平均強度」、y軸を「感情印象の多面度」としたグラフでは、「素顔」に対して、「メイク1」~「メイク3」の何れのメイクを施しても、「感情印象の多面度」が「0.5」から上昇(「メイク1:1.2」、「メイク2:0.707・・・」及び「メイク3:0.37」)していることが読み取れる。 Next, the graph of FIG.13(c) is demonstrated. As shown in FIG. 13(c), in a graph in which the x-axis is "average intensity of positivity" and the y-axis is "multifaceted degree of emotional impression", "makeup 1" to "makeup 1" to "makeup 3”, the “multifaceted degree of emotional impression” increased from “0.5” (“makeup 1: 1.2”, “makeup 2: 0.707 . . . ” and “makeup 3:0.37").

このような評価結果から、「メイク1」~「メイク3」の何れのメイクを施しても多面性の印象を確保することができるため、例えば、「きりっとした印象」にしたい場合は「ポジティブ度の平均強度」が「素顔」よりも低い「メイク1」や「メイク2」を、また、「華やかな印象」にしたい場合は「ポジティブ度の平均強度」が「素顔」よりも高い「メイク3」を提案することが可能である。 From these evaluation results, it is possible to secure a multifaceted impression even if any of “Makeup 1” to “Makeup 3” is applied. "Makeup 1" and "Makeup 2", which are lower than the "bare face", and "Makeup 3", where the "average strength of positivity" is higher than the "bare face", if you want to make a "glamorous impression" ” can be proposed.

(実施例3)
次に、実施例3について、図14を参照しつつ説明する。実施例3では、対象者Wの眼の周辺部分に施したアイブロウの効果を評価した。
図14はアイブロウを施した対象者Wの眉周りの画像とともに、該画像データに基づく感情指数パタンを示したものである。この眉周りの画像は、実施例2で用いた素顔の顔画像(9枚)とメイク1の顔画像(9枚)から切り取ってきたものである。
(Example 3)
Next, Example 3 will be described with reference to FIG. In Example 3, the effect of eyebrow applied to the peripheral portion of the eyes of the subject W was evaluated.
FIG. 14 shows an image of the area around the eyebrows of the subject W to whom eyebrows have been applied, together with the emotion quotient pattern based on the image data. The images around the eyebrows are cut out from the natural facial images (9 sheets) and the makeup 1 facial images (9 sheets) used in the second embodiment.

図14に示すように、実施例3では、眉周りに関連する「AU」のみに基づいて、対象者W(評価対象者H)の顔から受ける印象を評価した。具体的には、実施例3では、対象者Wの眉周りを動作単位とする「AU1」(眉の内側を上げる動作)、「AU2」(眉の内側を上げる動作)、「AU4」(眉を上げる動作)、「AU6」(頬を持ち上げる動作)及び「AU7」(瞼を緊張させる動作)に基づいて、対象者Wに施されたアイブロウの効果を評価した。
「素顔」のときの感情指数パタンと、アイブロウを施したときの感情指数パタンとを比較すると、「素顔」にアイブロウを施した場合、「感情印象の多面度」が「0.33」から「0.88」(差分:+0.55)に上昇していることが読み取れる。
このような結果から「多面的な印象」が強調された、といったような評価をすることが可能である。このように、実施例3によれば、顔の一部の画像であっても、対象者Wの印象評価を、何ら問題なく行うことができる。
As shown in FIG. 14, in Example 3, the impression received from the face of the subject W (evaluation subject H) was evaluated based only on "AU" related to the eyebrow circumference. Specifically, in the third embodiment, "AU1" (movement to raise the inside of the eyebrow), "AU2" (movement to raise the inside of the eyebrow), "AU4" (movement to raise the inside of the eyebrow), and "AU4" (movement to raise the inside of the eyebrow) are used as motion units around the subject W's eyebrow. The effect of the eyebrow applied to the subject W was evaluated based on "AU6" (movement to lift the cheek) and "AU7" (movement to tighten the eyelid).
Comparing the emotional quotient pattern of the "real face" with the emotional quotient pattern of applying eyebrows, when the "real face" was given eyebrows, the "multifaceted degree of emotional impression" increased from "0.33" to "0.88" (difference: +0.55).
From these results, it is possible to make an evaluation such as emphasizing the "multifaceted impression". As described above, according to the third embodiment, it is possible to evaluate the impression of the subject W without any problem even with an image of a part of the face.

(実施例4)
次に、実施例4について、図15を参照しつつ説明する。実施例4は、実施例3の変形例で、対象者Wの目元周りに施したアイメイクの効果を評価したものである。
図15は、アイメイクを施した対象者Wの眼の周辺の画像とともに、該画像データに基づく感情指数パタンを示したものである。この眼の周辺の画像は、実施例2で用いた素顔の顔画像(9枚)とメイク1の顔画像(9枚)から切り取ってきたものである。
(Example 4)
Next, Example 4 will be described with reference to FIG. Example 4 is a modified example of Example 3, and evaluates the effect of eye makeup applied around the eyes of the subject W. FIG.
FIG. 15 shows an image around the eyes of the subject W who has applied eye makeup and the emotion quotient pattern based on the image data. The images around the eyes are cut out from the natural face images (9 sheets) and the makeup 1 face images (9 sheets) used in the second embodiment.

図15に示すように、実施例4では、上記実施例3と同様に、顔の一部である眼の周辺に関連する「AU」のみに基づいて、対象者W(評価対象者H)の顔から受ける印象を評価するようにしたものである。具体的には、本実施例4は、評価対象者Hである対象者の眼の周辺を動作単位とする「AU5」(上瞼を上げる動作)、「AU6」(頬を持ち上げる動作)及び「AU7」(瞼を緊張させる動作)に基づいて、対象者Wに施されたアイメイクの効果を評価した。 As shown in FIG. 15 , in Example 4, similar to Example 3, based on only the “AU” related to the eye periphery, which is a part of the face, the subject W (evaluation subject H) It is designed to evaluate the impression received from the face. Specifically, in the fourth embodiment, "AU5" (motion to raise the upper eyelid), "AU6" (motion to lift the cheek), and " The effect of the eye makeup applied to the subject W was evaluated based on AU7" (movement to tighten the eyelids).

図15に示すように、アイメイクを施したときの感情指数パタンによれば、「AU5」において、撮像装置C1~C6により撮像された角度の顔画像に基づく数値が、一様に上昇した。図15に示す結果から、正面から右側に向かって全体的に「AU5」の値が上昇していることが判った。これにより、「AU5」の値が一様に上昇するアイメイクとなるよう、左側にも右側と同様なアイメイクをすることを、対象者Wに対して提案することも可能である。実施例4によれば、実施例3と同様に、顔の一部の画像を用いても、何ら問題なく印象評価を行うことができる。 As shown in FIG. 15, according to the emotion quotient pattern when eye makeup is applied, the numerical values based on the face images of the angles captured by the imaging devices C1 to C6 uniformly increased in “AU5”. From the results shown in FIG. 15, it was found that the "AU5" value generally increased from the front to the right side. As a result, it is possible to propose to the subject W to apply the same eye makeup on the left side as on the right side so that the value of "AU5" increases uniformly. According to the fourth embodiment, similarly to the third embodiment, it is possible to perform the impression evaluation without any problem even if the image of a part of the face is used.

(実施例5)
次に、実施例5を、図16~図19を参照しつつ説明する。実施例5は、ファンデーション(以下、「FD」と称す)を塗布した対象者W(評価対象者H)の顔から受ける印象を評価したものである。
図16は素顔の対象者の表情表出時における顔画像に基づく感情指数パタンを、図17は「FD1」を塗布した対象者の表情表出時における顔画像に基づく感情指数パタンを、図18は「FD1」とは異なる「FD2」を塗布した対象者の表情表出時における顔画像に基づく感情指数パタンをそれぞれ示している。図19は、図16~図18の各感情指数パタンを用いて作成された対象者の顔から受ける印象を評価するためのグラフを、それぞれ示している。なお、上記各顔画像は、自然な表情で撮像されたものであり、上記実施例1~実施例4と同様に、撮像装置C1~C9(図1参照)により撮影した。また、「FD1」は、素肌に塗布した際に、小皺や毛穴などの凹凸をカバーして、ツヤ感を抑えた仕上がり(いわゆる「マット肌」)にするためのFDであり、「FD2」は、素肌のようなツヤ感がある自然な仕上がり(いわゆる「ツヤ肌」)にするためのFDを、それぞれ示している。
(Example 5)
Next, Example 5 will be described with reference to FIGS. 16 to 19. FIG. Example 5 evaluates the impression received from the face of a subject W (evaluation subject H) who applied a foundation (hereinafter referred to as "FD").
FIG. 16 shows the emotion quotient pattern based on the facial image when the subject with the bare face expresses his/her facial expression, FIG. show the emotion quotient patterns based on the facial images when the subjects to whom "FD2" different from "FD1" was applied showed facial expressions. FIG. 19 shows graphs for evaluating the impression received from the subject's face created using each emotion quotient pattern of FIGS. 16 to 18, respectively. The face images described above were taken with natural facial expressions, and were taken by the image pickup devices C1 to C9 (see FIG. 1) in the same manner as in Examples 1 to 4 above. In addition, “FD1” is an FD that covers unevenness such as fine wrinkles and pores when applied to the bare skin to create a finish with a reduced gloss (so-called “matte skin”), and “FD2” is , and FD for achieving a natural finish with a glossy feeling like bare skin (so-called “glossy skin”), respectively.

図16に示すように、表情表出時における素顔の対象者の表情は、例えば、「ポジティブ度の平均強度:0.44」、「ネガティブ度の平均強度:1.00」、「感情印象の平均強度:-0.56」及び「複雑度の平均強度:0.22」という結果であった。
図17に示すように、表情表出時における「FD1」を塗布した対象者の表情は、例えば、「ポジティブ度の平均強度:0.67」、「ネガティブ度の平均強度:1.89」、「感情印象の平均強度:-1.22」及び「複雑度の平均強度:1.22」という結果であった。
図18に示すように、表情表出時における「FD2」を塗布した対象者の表情は、例えば、「ポジティブ度の平均強度:1.00」、「ネガティブ度の平均強度:1.56」、「感情印象の平均強度:-0.56」及び「複雑度の平均強度:1.56」という結果であった。
As shown in FIG. 16, the facial expression of the target person when the facial expression is expressed is, for example, “average intensity of positivity: 0.44”, “average intensity of negativity: 1.00”, “emotional impression Average strength: -0.56" and "average strength of complexity: 0.22".
As shown in FIG. 17, the facial expressions of the subject who applied “FD1” when expressing expressions are, for example, “average intensity of positivity: 0.67”, “average intensity of negativity: 1.89”, The results were "average intensity of emotional impression: -1.22" and "average intensity of complexity: 1.22".
As shown in FIG. 18, the facial expressions of the subject who applied “FD2” when expressing expressions are, for example, “average intensity of positivity: 1.00”, “average intensity of negativity: 1.56”, The results were "average intensity of emotional impression: -0.56" and "average intensity of complexity: 1.56".

図19(a)に示すように、x軸を「ポジティブ度の平均強度」、y軸を「ネガティブ度の平均強度」としたグラフによれば、原点0から点「素顔」までの距離と、原点0から点「FD1」までの距離及び原点0から点「FD2」までの距離とを比較すると、後者の方が原点0からの距離(長さ)が明らかに長いことが読み取れる。この長さは、「感情の強さ」を表すものであるので、このグラフより、「FD1」及び「FD2」を塗布した場合、感情が強調される、といった評価をすることが可能である。 As shown in FIG. 19(a), according to the graph in which the x-axis is "average intensity of positivity" and the y-axis is "average intensity of negativity", the distance from the origin 0 to the point "real face", Comparing the distance from the origin 0 to the point "FD1" and the distance from the origin 0 to the point "FD2", it can be read that the distance (length) from the origin 0 is clearly longer in the latter. Since this length represents the "strength of emotion", it is possible to evaluate from this graph that the emotion is emphasized when "FD1" and "FD2" are applied.

また、図19(a)のグラフによれば、「素顔」に「FD1」を施した場合では、「ポジティブ度の平均強度」が「0.44」から「0.67」(差分:+0.23)に、また、「ネガティブ度の平均強度」が「1.0」から「1.89」(差分:+0.89)にそれぞれ上昇していることが読み取れる。これに対し、「FD2」を施した場合では、「ポジティブ度の平均強度」が「0.44」から「0.1」(差分:+0.56)に、また、「ネガティブ度の平均強度」が「1.0」から「1.56」(差分:+0.56)にそれぞれ上昇していることを読み取ることができる。このような結果から、「FD1」を施した場合では、主に「ネガティブ度」が高くなる、と評価できる一方、「FD2」を施した場合では、「ネガティブ度」及び「ポジティブ度」の両方が万遍なく高くなる、といった客観的な評価をすることが可能になる。なお、グラフ中の点「素顔ニュートラル」は、図5の「素顔(化粧無し)」かつ「無表情」の状態で撮像された、対象者Wの顔画像に基づく感情指数パタンに基づいて、プロットしたもので、グラフ中に参考として表示したものである。また、図19(b)のグラフ中の点「素顔ニュートラル」についても同様である。 Further, according to the graph of FIG. 19(a), when "FD1" is applied to the "real face", the "average intensity of positivity" changes from "0.44" to "0.67" (difference: +0. 23), it can also be seen that the "average intensity of negativity" has increased from "1.0" to "1.89" (difference: +0.89). On the other hand, when "FD2" is applied, the "average intensity of positivity" changes from "0.44" to "0.1" (difference: +0.56), and the "average intensity of negativity" increases from "1.0" to "1.56" (difference: +0.56). From these results, when "FD1" is applied, it can be evaluated that "negative degree" is mainly increased, while when "FD2" is applied, both "negative degree" and "positive degree" It is possible to make an objective evaluation such as whether the Note that the point "Neutral face" in the graph is plotted based on the emotional quotient pattern based on the face image of the subject W captured in the "bare face (without makeup)" and "expressionless" state in FIG. This is shown in the graph as a reference. The same applies to the point "Neutral Face" in the graph of FIG. 19(b).

図19(b)に示すように、x軸を「感情印象の平均強度」、y軸を「複雑度の平均強度」としたグラフによれば、「素顔」に「FD1」を施した場合では、「感情印象の平均強度」が「-0.56」から「-1.22」(差分:-0.66)に低下している一方、「複雑度の平均強度」が「0.22」から「1.22」(差分:+1.0)に上昇していることが読み取れる。これに対し、「FD2」を施した場合では、「感情印象の平均強度」が「-0.56」から「-0.56」(差分:0)と変化せず、「複雑度の平均強度」が「0.22」から「1.56」(差分:+1.0)に上昇していることを読み取ることができる。このような結果から、「FD1」を施した場合では、「感情印象の平均強度」(総合感情)がネガティブ寄りに推移しつつ(「感情印象」=Max(XAU positive)-Max(XAU negative)、「複雑度の平均強度」(複雑性)が上昇する、と評価できる一方、「FD2」を施した場合では、「感情印象の平均強度」(総合感情)が変わらず、「複雑度の平均強度」(複雑性)が上昇する、といった客観的な評価をすることが可能になる。
このような評価結果から、例えば、「FD1」及び「FD2」を施した場合、何れも、対象者の内面的な印象を左右する「複雑性」(複雑度)を高めることができるが、さらに「複雑性」を高めるのは「FD2」である、といった提案を対象者に対してすることができる。
As shown in FIG. 19B, according to the graph in which the x-axis is "average intensity of emotional impression" and the y-axis is "average intensity of complexity", when "FD1" is applied to "real face", , while the “average intensity of emotional impression” decreased from “−0.56” to “−1.22” (difference: −0.66), the “average intensity of complexity” was “0.22”. to "1.22" (difference: +1.0). On the other hand, when "FD2" is applied, the "average intensity of emotional impression" does not change from "-0.56" to "-0.56" (difference: 0), and the "average intensity of complexity ' rises from '0.22' to '1.56' (difference: +1.0). From these results, when "FD1" was applied, the "average intensity of emotional impression" (comprehensive emotion) shifted toward the negative side ("emotional impression" = Max (X AU positive ) - Max (X AU Negative ), and the "average intensity of complexity" (complexity) increases. It is possible to make an objective evaluation such as an increase in the average intensity of "(complexity)".
From such evaluation results, for example, when "FD1" and "FD2" are applied, both can increase the "complexity" (complexity) that affects the inner impression of the subject, but further A suggestion can be made to the subject that it is 'FD2' that increases 'complexity'.

(実施例6)
実施例6では、興味のある話(好きな話)をしているときの評価対象者の顔から受ける印象と、興味のない話(嫌いな話)をしているときの評価対象者の顔から受ける印象を比較して評価した。
実施例6では、インタビュー時の評価対象者(本実施形態では、対象者)の顔画像に基づく感情指数パタンを作成した。図20における(A1)は評価対象者が興味のある話(好きな話)をしている場合の感情指数パタンを、(B1)は評価対象者が興味のない話(嫌いな話)をしている場合の感情指数パタンをそれぞれ示している。
(Example 6)
In Example 6, the impression received from the evaluation subject's face when talking about an interesting story (favorite story) and the evaluation subject's face when talking about an uninteresting story (dislike story). It was evaluated by comparing the impression received from.
In Example 6, emotion quotient patterns were created based on facial images of persons to be evaluated at the time of interviews (subjects in this embodiment). In FIG. 20, (A1) shows the emotional quotient pattern when the subject of evaluation is telling a story that the subject is interested in (favorite story), and (B1) is the emotion index pattern when the subject of evaluation is telling a story that the subject is not interested in (dislikes). The emotional quotient patterns for each case are shown.

本実施例では、上記実施例1~実施例5とは異なり、1台の動画像撮像装置により取得された顔画像に基づいて、評価対象者の顔から受ける印象の評価を行っている。具体的には、本実施例では、動画像データを発話内容(好きな話や嫌いな話等)によって分類し、発話が終了して口を閉じたタイミングで抜き出した複数の顔画像(フレーム)、すなわち、経時的な複数のフレーム画像(静止画像)に基づいて印象評価を行った。 In the present embodiment, unlike the first to fifth embodiments, the impression received from the face of the person to be evaluated is evaluated based on the face image acquired by one moving image pickup device. Specifically, in this embodiment, the moving image data is classified according to the content of the utterance (a story that one likes, one that one dislikes, etc.), and a plurality of facial images (frames) are extracted at the timing when the utterance ends and the mouth is closed. That is, impression evaluation was performed based on a plurality of frame images (still images) over time.

図20に示すように、評価対象者が興味のある話(好きな話)をしている場合(A1)では、「複雑度の平均強度」が「0.66667」という値であったのに対し、評価対象者が興味のない話(嫌いな話)をしている場合(B1)では、「複雑度の平均強度」が「5」という高い値であった。
このような結果から、評価対象者が興味のある話をしている場合では、顔が「複雑性」(複雑度)を伴う表情となることが(ほとんど)なく、評価対象者が興味のない話をしている場合では、顔が「複雑性」を伴う表情になる傾向にある、といった評価をすることが可能である。
As shown in FIG. 20, in the case (A1) where the subject of evaluation is telling an interesting story (favorite story), the "average intensity of complexity" was a value of "0.66667". On the other hand, in the case (B1) in which the person to be evaluated talks about a story he or she is not interested in (dislikes), the “average intensity of complexity” is a high value of “5”.
From these results, when the subject of evaluation is talking about an interesting story, the facial expression with "complexity" (complexity) does not (almost) occur, and the subject of evaluation is not interested. When talking, it is possible to evaluate that the face tends to have a "complicated" expression.

(実施例7)
実施例7では、ストレスモニタリング時の評価対象者H(本実施形態では、対象者W)の顔から受ける印象を評価したものである。
ストレスモニタリング時における対象者Wの顔の動画像から抜き出したフレーム画像を用いた。動画像を発話内容(好きな話や嫌いな話等)によって分類し、発話が終了して口を閉じたタイミングで抜き出した複数の顔画像(フレーム)画像を取得した。このフレーム画像に基づき、ストレスモニタリング時の対象者Wの顔画像に基づく感情指数パタンを作成した。(A2)は評価対象者Hである対象者Wが興味のある話(好きな話)をしている場合の感情指数パタンを、(B2)は対象者Wがストレスのある状況について話をしている場合の感情指数パタンをそれぞれ示している。
(Example 7)
In Example 7, the impression received from the face of an evaluation subject H (subject W in this embodiment) during stress monitoring was evaluated.
A frame image extracted from the moving image of the subject W's face during stress monitoring was used. The moving images were classified according to the contents of the utterance (likes, dislikes, etc.), and a plurality of facial images (frames) were extracted at the timing when the utterance ended and the mouth was closed. Based on this frame image, an emotion quotient pattern based on the face image of the subject W during stress monitoring was created. (A2) shows the emotion quotient pattern when the subject W, who is the subject of evaluation H, is talking about an interesting story (favorite story), and (B2) is the emotion quotient pattern when the subject W is talking about a stressful situation. The emotional quotient patterns for each case are shown.

本実施例では、複数(本実施形態では、2台)の動画像撮像装置C11,C12(例えば、ビデオカメラ)により取得された動画像に基づいて、対象者Wの顔から受ける印象の評価を行った。具体的には、本実施例では、互いに同期している2台の動画像撮像装置で、対象者Wの顔を2方向(本実施形態では、顔の正面左斜め側と、顔の正面右斜め側)から撮像し、動画像から抜き出した複数のフレーム画像(所定タイミングT1~T3における各フレーム画像)に基づいて対象者Wの顔から受ける印象を評価するように構成される。 In this embodiment, the impression received from the subject W's face is evaluated based on moving images captured by a plurality of (two in this embodiment) moving image capturing devices C11 and C12 (for example, video cameras). gone. Specifically, in the present embodiment, two moving image capturing devices synchronized with each other are used to scan the face of the subject W in two directions (in this embodiment, the oblique front left side of the face and the front right side of the face). The image is captured from the oblique side), and the impression received from the subject W's face is evaluated based on a plurality of frame images (each frame image at predetermined timings T1 to T3) extracted from the moving image.

Figure 2023038870000003
Figure 2023038870000003

表2に示すように、対象者Wが興味のある話(好きな話)をしている場合(A2)では、C11のフレーム画像に基づく感情指数パタンと、C12のフレーム画像に基づく感情指数パタンとを比較すると、例えば、「ポジティブ度の平均強度の差分:0.67」、「ポジティブ度のフレーム依存度の差分:0.58」、「ネガティブ度の平均強度の差分:0.00」、「ネガティブ度のフレーム依存度の差分:0.00」、「複雑度の平均強度の差分:0.33」及び「複雑度のフレーム依存度の差分:0.58」という結果であった。 As shown in Table 2, when the subject W is telling an interesting story (favorite story) (A2), the emotion quotient pattern based on the frame image of C11 and the emotion quotient pattern based on the frame image of C12 For example, "difference in average intensity of positivity: 0.67", "difference in frame dependency of positivity: 0.58", "difference in average intensity of negativity: 0.00", The results were "difference in frame dependence of negativity: 0.00", "difference in mean intensity of complexity: 0.33", and "difference in frame dependence of complexity: 0.58".

これに対し、ストレスのある状況について話をしている場合(B2)では、C11のフレーム画像に基づく感情指数パタンと、C12のフレーム画像に基づく感情指数パタンとを比較すると、「ポジティブ度の平均強度の差分:1.33」、「ポジティブ度のフレーム依存度の差分:0.84」、「ネガティブ度の平均強度の差分:1.00」、「ネガティブ度のフレーム依存度の差分:1.00」、「複雑度の平均強度の差分:2.67」及び「複雑度のフレーム依存度の差分:3.06」という結果であった。 On the other hand, when talking about a stressful situation (B2), comparing the emotion quotient pattern based on the frame image of C11 and the emotion quotient pattern based on the frame image of C12, the "average of positivity "difference in intensity: 1.33", "difference in frame dependence of positivity: 0.84", "difference in average intensity of negativity: 1.00", "difference in frame dependence of negativity: 1.00". 00”, “difference in average intensity of complexity: 2.67”, and “difference in frame dependence of complexity: 3.06”.

このような結果から、対象者Wが興味のある話をしている場合と、ストレスのある状況について話をしている場合とを比較すると、C11及びC12間の「ポジティブ度」、「ネガティブ度」及び「複雑度」の各差分の絶対値が、前者よりも後者のほうが格段に高い数値を示していることがわかる。 From these results, when comparing the case where the subject W is talking about an interesting story and the case where the subject W is talking about a stressful situation, the “positivity” and “negativeness” between C11 and C12 ” and “complexity” are significantly higher in the latter than in the former.

以上の評価結果から、対象者Wの顔の印象は、見る角度によっては、対象者Wが、興味のある話をしているときよりも、ストレスのある状況について話をしているときのほうが、「ポジティブ度」、「ネガティブ度」及び「複雑度」の全てにおいて異なる印象となる傾向が強い、といった評価をすることが可能である。 From the above evaluation results, depending on the viewing angle, the impression of subject W's face was higher when subject W was talking about a stressful situation than when subject W was talking about something interesting. , “Positiveness”, “Negativeness” and “Complexity” all tend to give different impressions.

1 印象評価システム
2 制御装置
3 制御部
3A 表情動作評価部
3B 感情指数算出部
3C 感情指標算出部
3D 情報提示部
4 記憶部
5 顔情報取得部
6 表示部
C1~C9 撮像装置
H 評価対象者
1 impression evaluation system 2 control device 3 control unit 3A facial movement evaluation unit 3B emotion quotient calculation unit 3C emotion index calculation unit 3D information presentation unit 4 storage unit 5 face information acquisition unit 6 display units C1 to C9 imaging device H evaluation subject

Claims (6)

評価対象者の顔情報データに基づき、該評価対象者の顔から受ける印象を評価する印象評価方法であって、
評価対象者の複数の異なる顔情報データを取得する顔情報取得工程と、
個々の前記顔情報データに対し、表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価工程と、
前記表情動作評価工程の評価結果と、表情動作単位に関連付けられている感情とに基づき、表情動作単位ごとに感情指数を算出する感情指数算出工程と、
複数の前記顔情報データの前記感情指数を用いて、前記評価対象者の顔から受ける印象を評価するための、前記顔情報データと前記感情指数との対応情報を提示する情報提示工程とを備える、印象評価方法。
An impression evaluation method for evaluating the impression received from the evaluation subject's face based on the evaluation subject's face information data,
a face information acquisition step of acquiring a plurality of different face information data of the person to be evaluated;
a facial expression movement evaluation step of evaluating the intensity of movement for each facial movement unit based on the movement of facial muscles for each face information data;
an emotion quotient calculation step of calculating an emotion quotient for each facial movement unit based on the evaluation result of the facial movement evaluation step and the emotion associated with the facial movement unit;
an information presenting step of presenting correspondence information between the face information data and the emotion quotients for evaluating the impression received from the face of the person to be evaluated using the emotion quotients of a plurality of the face information data. , the impression evaluation method.
複数の前記感情指数に基づき、前記顔情報データの感情指標を算出する感情指標算出工程を備え、
前記情報提示工程において、複数の前記顔情報データの前記感情指標を含む前記対応情報を提示する、請求項1に記載の印象評価方法。
an emotion index calculation step of calculating an emotion index of the face information data based on a plurality of the emotion indexes;
2. The impression evaluation method according to claim 1, wherein, in said information presenting step, said correspondence information including said emotion indicators of a plurality of said face information data is presented.
前記感情指標算出工程において、単一の前記顔情報データに関する複数種類の前記感情指数に基づき、前記感情指標を算出する、請求項2に記載の印象評価方法。 3. The impression evaluation method according to claim 2, wherein in said emotion index calculation step, said emotion index is calculated based on a plurality of types of said emotion index relating to said single face information data. 前記感情指標算出工程において、複数の前記顔情報データに関する一種類の前記感情指数に基づき、前記感情指標を算出する、請求項2に記載の印象評価方法。 3. The impression evaluation method according to claim 2, wherein in said emotion index calculation step, said emotion index is calculated based on one type of said emotion index relating to a plurality of said face information data. 前記感情指数算出工程における前記感情が感情価である、請求項1~4の何れか1項に記載の印象評価方法。 5. The impression evaluation method according to any one of claims 1 to 4, wherein said emotion in said emotion quotient calculating step is an emotional valence. 評価対象者の顔情報データに基づき、該評価対象者の顔から受ける印象を評価するための印象評価システムであって、
複数の異なる顔情報データを取得する顔情報取得部と、
個々の前記顔情報データに対し、表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価部と、
前記表情動作評価部の評価結果と、表情動作単位に関連付けられている感情とに基づき、表情動作単位ごとに感情指数を算出する感情指数算出部と、
複数の前記顔情報データの前記感情指数を用いて、前記評価対象者の顔から受ける印象を評価するための、前記顔情報データと前記感情指数との対応情報を提示する情報提示部とを備える、印象評価システム。
An impression evaluation system for evaluating the impression received from the evaluation subject's face based on the evaluation subject's face information data,
a face information acquisition unit that acquires a plurality of different face information data;
a facial movement evaluation unit that evaluates the strength of movement for each facial movement unit based on the movement of facial muscles for each of the facial information data;
an emotion quotient calculation unit that calculates an emotion quotient for each facial movement unit based on the evaluation result of the facial movement evaluation unit and the emotion associated with the facial movement unit;
an information presenting unit for presenting correspondence information between the face information data and the emotion quotients for evaluating the impression received from the face of the person to be evaluated using the emotion quotients of a plurality of the face information data. , impression evaluation system.
JP2021145817A 2021-09-07 2021-09-07 Impression evaluation method and impression evaluation system Pending JP2023038870A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021145817A JP2023038870A (en) 2021-09-07 2021-09-07 Impression evaluation method and impression evaluation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021145817A JP2023038870A (en) 2021-09-07 2021-09-07 Impression evaluation method and impression evaluation system

Publications (1)

Publication Number Publication Date
JP2023038870A true JP2023038870A (en) 2023-03-17

Family

ID=85514778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021145817A Pending JP2023038870A (en) 2021-09-07 2021-09-07 Impression evaluation method and impression evaluation system

Country Status (1)

Country Link
JP (1) JP2023038870A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2025128858A (en) * 2024-02-22 2025-09-03 デジタルヒューマン株式会社 Information processing system, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039934A (en) * 2009-08-17 2011-02-24 Tokai Univ Emotion estimation system and learning system using the same
JP2019517693A (en) * 2016-06-01 2019-06-24 オハイオ・ステイト・イノベーション・ファウンデーション System and method for facial expression recognition and annotation
JP2021056786A (en) * 2019-09-30 2021-04-08 富士通株式会社 Impression estimation method, impression estimation program and impression estimation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039934A (en) * 2009-08-17 2011-02-24 Tokai Univ Emotion estimation system and learning system using the same
JP2019517693A (en) * 2016-06-01 2019-06-24 オハイオ・ステイト・イノベーション・ファウンデーション System and method for facial expression recognition and annotation
JP2021056786A (en) * 2019-09-30 2021-04-08 富士通株式会社 Impression estimation method, impression estimation program and impression estimation device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
トーンカム チャイヤプルック、内田 理: ""Kinectを利用した感情推定手法"", 映像情報メディア学会技術報告, vol. 38, no. 33, JPN6025008539, 18 August 2014 (2014-08-18), JP, pages 41 - 44, ISSN: 0005650801 *
菅原 徹: ""顔の特徴情報を用いた表情と魅力の分析"", 可視化情報学会誌, vol. 41, no. 161, JPN6025008538, 1 June 2021 (2021-06-01), JP, pages 7 - 11, ISSN: 0005540196 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2025128858A (en) * 2024-02-22 2025-09-03 デジタルヒューマン株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
Lou et al. Realistic facial expression reconstruction for VR HMD users
CN114502061A (en) Image-based automatic skin diagnosis using deep learning
CN101341507B (en) Face classification method and face classification device
JP2021128807A (en) Evaluation method, evaluation device, and evaluation program
Alabbasi et al. Real time facial emotion recognition using kinect V2 sensor
Kosinski et al. Facial recognition technology and human raters can predict political orientation from images of expressionless faces even when controlling for demographics and self-presentation.
Chetty et al. A multilevel fusion approach for audiovisual emotion recognition
McDuff et al. “warm bodies”: A post-processing technique for animating dynamic blood flow on photos and avatars
JP2023038870A (en) Impression evaluation method and impression evaluation system
JP5276454B2 (en) Facial expression measurement method, facial expression measurement program, and facial expression measurement apparatus
CN119397072A (en) Method and system for personalized recommendation based on multi-feature fusion face recognition
Gilanie et al. A ROBUST CONVOLUTIONAL NEURAL NETWORK-BASED APPROACH FOR HUMAN EMOTION CLASSIFICATION: CROSS-DATASET VALIDATION AND GENERALIZATION
US20240265533A1 (en) Computer-based body part analysis methods and systems
KR102877112B1 (en) Method and apparatus for providing counselling service
JP5095182B2 (en) Face classification device, face classification program, and recording medium on which the program is recorded
JP2023038871A (en) Feature extraction method and feature extraction system
CN117894057B (en) Three-dimensional digital face processing method and device for auxiliary diagnosis of affective disorders
Yamada et al. Virtual facial image synthesis with facial color enhancement and expression under emotional change ofanger
JP2016193175A (en) Extraction method of determination part for apparent face impression, extraction method of determining factor for apparent face impression, and differentiation method for apparent face impression
Nguyen Clinical decision support system for facial mimic rehabilitation
US20250325207A1 (en) Personalized training system to improve reciprocal eye engagement and facial emotional skills for neurodivergent individuals
JP2023155988A (en) Nasolabial shadow analysis method
Rivera et al. Development of an automatic expression recognition system based on facial action coding system
CN119677453A (en) Method for predicting the development of skin signs over time
Yauoka et al. Analysis of Subjective Ratings of Expression Intensity for 3D Face Models Reconstructed from Monocular Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20250729