[go: up one dir, main page]

JP2008046691A - Face image processor and program for computer - Google Patents

Face image processor and program for computer Download PDF

Info

Publication number
JP2008046691A
JP2008046691A JP2006218993A JP2006218993A JP2008046691A JP 2008046691 A JP2008046691 A JP 2008046691A JP 2006218993 A JP2006218993 A JP 2006218993A JP 2006218993 A JP2006218993 A JP 2006218993A JP 2008046691 A JP2008046691 A JP 2008046691A
Authority
JP
Japan
Prior art keywords
change
face
face image
mood
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006218993A
Other languages
Japanese (ja)
Inventor
Junichi Takeda
隼一 武田
Hitoshi Ikeda
仁 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2006218993A priority Critical patent/JP2008046691A/en
Publication of JP2008046691A publication Critical patent/JP2008046691A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily estimate the feeling of a person changing due to the secretion of a specific neurotransmitter. <P>SOLUTION: A face image obtained by picking up the face of a person is successively obtained, and a predetermined region whose shape is changing in the face of a person due to the secretion of a specific neurotransmitter is set as a detection object region in the face image, and the change of the set detection object region is detected based on the successively acquired face image, and the feeling of a person to be generated based on the specific neurotransmitter is estimated based on the detected change. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理技術に関し、特に顔画像に写し出された人の気分を推定する技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for estimating a person's mood projected on a face image.

コンピュータの急速な普及、発達に伴い、コンピュータが人とコミュニケーションを取りながらサービスを提供する機会が増えてきている。コンピュータが人とコミュニケーションを取る上では、人の気持ちを理解できるようになるのが望ましい。コンピュータが人の気持ちを理解することができれば、様々な分野、例えばカウンセリング等の医療分野や、ゲームなどのエンターテインメント分野等の幅広い産業分野で、より柔軟で多様なサービスの提供が可能となると考えられる。   With the rapid spread and development of computers, there are increasing opportunities for computers to provide services while communicating with people. For computers to communicate with people, it is desirable to be able to understand people's feelings. If computers can understand people's feelings, it will be possible to provide more flexible and diverse services in various fields such as medical fields such as counseling and entertainment fields such as games. .

そこで、従来では、人の顔画像をカメラで撮像して、その人が疲労している場合の顔、不安に思っている場合の顔、焦っている場合の顔等の複数のサンプル顔画像をデータベースに保持しておいて、新たに撮像した顔画像をそのデータベースを参照したマッチングを行って、人の感情を判定する技術が提案されている(特許文献1を参照)。   Therefore, conventionally, a plurality of sample face images such as a face when the person is tired, a face when the person feels anxiety, a face when the person is impatient, etc. are captured by a camera. A technique has been proposed in which a newly captured face image is stored in a database and matching is performed with reference to the database to determine human emotions (see Patent Document 1).

しかし、感情を判定する時は、例えば笑っている場合には口角が上がる、といった感情に対応する顔形状の変化を識別するものであり、感情に基づく表情は人間の意志によって、笑った顔をしたり、怒った顔をしたりすることでコントロールできてしまうため、人の状態を装置によって判定するには不十分な場合がある。   However, when judging emotions, for example, it identifies the change in facial shape corresponding to emotions, such as raising the corner of a mouth when laughing. Or with an angry face, it may be insufficient to determine the state of the person with the device.

一方、人にはふとストレスを感じたときや、逆にふとリラックスしたときなどのように、人間の意志ではコントロールしにくい気分の変化が起きる。この気分の変化は、人体の神経伝達物質の分泌により引き起こされているとの臨床事実に基づいて、人の尿や血液からドーパミン、セロトニン、ノルアドレナリン等の神経伝達物質を検出して、人がストレスを感じているか等を判断する技術を提案しているものもある(特許文献2を参照)。
特開2000−76421号公報 特開2000−131318号公報
On the other hand, when a person suddenly feels stress, or when he / she relaxes suddenly, a mood change that is difficult to control by human will occurs. Based on the clinical fact that this change in mood is caused by the secretion of neurotransmitters in the human body, humans are stressed by detecting neurotransmitters such as dopamine, serotonin, and noradrenaline in human urine and blood. Some have proposed a technique for determining whether or not the user feels the problem (see Patent Document 2).
JP 2000-76421 A JP 2000-131318 A

しかしながら、特許文献1の従来技術は、顔画像による判別が感情の判別に止まっていために、人の意思によるコントロールが働き難い状態、即ち気分、を判別することはできなかった。また、特許文献2に記載の従来技術では、人体から直接に神経伝達物質の分泌を検出するには専門の装置を必要とするため、費用や手間がかかってしまっていた。そのため、簡易に人の気分を判断できるようなものではなかった。   However, the prior art of Patent Document 1 cannot discriminate a state in which it is difficult to control by human intention, that is, mood, because discrimination based on facial images is limited to emotion discrimination. Moreover, in the prior art described in Patent Document 2, a specialized device is required to detect the secretion of a neurotransmitter directly from the human body, which has been expensive and troublesome. For this reason, it has not been easy to judge a person's mood.

本発明は、上記課題に鑑みてなされたものであって、その目的の1つは、特定の神経伝達物質が分泌されたことにより変化する人の気分を簡易に推定できる顔画像処理装置及びコンピュータのプログラムを提供することにある。   The present invention has been made in view of the above problems, and one of its purposes is a face image processing apparatus and a computer that can easily estimate a person's mood that changes due to the secretion of a specific neurotransmitter. Is to provide a program.

上記課題を解決するために、本発明に係る顔画像処理装置は、人の顔を撮像した顔画像を順次取得する画像取得手段と、特定の神経伝達物質の分泌により人の顔において形状が変化する所定領域を前記顔画像における検出対象領域として設定する領域設定手段と、前記画像取得手段により順次取得された顔画像に基づいて、前記領域設定手段により設定された検出対象領域の変化を検出する変化検出手段と、前記変化検出手段により検出された変化に基づいて特定の神経伝達物質に基づいて生ずる人の気分を推定する気分推定手段と、を含む、ことを特徴とする。   In order to solve the above problems, a face image processing apparatus according to the present invention includes an image acquisition unit that sequentially acquires a face image obtained by imaging a human face, and a shape change in the human face due to secretion of a specific neurotransmitter. Based on area setting means for setting a predetermined area to be detected as a detection target area in the face image, and face images sequentially acquired by the image acquisition means, a change in the detection target area set by the area setting means is detected. It includes a change detection means, and a mood estimation means for estimating a person's mood generated based on a specific neurotransmitter based on a change detected by the change detection means.

また、本発明に係るコンピュータ(パーソナルコンピュータ、サーバコンピュータ、プリンタ、携帯情報端末(PDA)、携帯電話機、ゲーム装置等を含む、以下同様)を機能させるためのプログラムは、人の顔を撮像した顔画像を順次取得する画像取得手段、特定の神経伝達物質の分泌により人の顔において形状が変化する所定領域を前記顔画像における検出対象領域として設定する領域設定手段、前記画像取得手段により順次取得された顔画像に基づいて、前記領域設定手段により設定された検出対象領域の変化を検出する変化検出手段、前記変化検出手段により検出された変化に基づいて、特定の神経伝達物質に基づいて生ずる人の気分を推定する気分推定手段、としてコンピュータを機能させるためのプログラムである。   Further, a program for causing a computer according to the present invention (including a personal computer, a server computer, a printer, a personal digital assistant (PDA), a mobile phone, a game device, etc., and so on) to function is a face obtained by imaging a human face. Image acquisition means for sequentially acquiring images, area setting means for setting a predetermined area whose shape changes in a human face due to secretion of a specific neurotransmitter as a detection target area in the face image, and sequentially acquired by the image acquisition means A change detection means for detecting a change in the detection target area set by the area setting means based on the face image, and a person generated based on a specific neurotransmitter based on the change detected by the change detection means This is a program for causing a computer to function as a mood estimation means for estimating the mood of a person.

プログラムは、CD−ROM(Compact Disk - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、メモリーカードその他のあらゆるコンピュータが読み取り可能な情報記憶媒体に格納することとしてよい。   The program may be stored in a CD-ROM (Compact Disk-Read Only Memory), a DVD-ROM (Digital Versatile Disk-Read Only Memory), a memory card, or any other computer-readable information storage medium.

本発明では、カメラにより撮像された人の顔画像がコンピュータに入力される。そして、入力された顔画像について、特定の神経伝達物質の分泌により人の顔において形状変化する所定領域(例えば、眼、鼻、口、眉等の所定部位における形状変化)を検出対象領域として設定する。そして、コンピュータに順次入力される顔画像に基づいて、顔画像における検出対象領域の変化を検出する。ここで検出された変化に基づいて、分泌されたと推定される神経伝達物質に基づいて生じる、人の気分を推定する。   In the present invention, a human face image captured by a camera is input to a computer. Then, with respect to the input face image, a predetermined region whose shape changes in the human face due to the secretion of a specific neurotransmitter (for example, a shape change in a predetermined part such as the eye, nose, mouth, eyebrows) is set as a detection target region To do. Then, based on the face images sequentially input to the computer, a change in the detection target area in the face image is detected. Based on the detected change, the human mood generated based on the neurotransmitter presumed to be secreted is estimated.

本発明によると、特定の神経伝達物質の分泌により人の顔において形状変化する所定領域が存在することを見出したことにより、人の顔画像に基づいた画像処理により、特定の神経伝達物質が分泌されたことにより変化する人の気分を簡易に推定することができるようになる。   According to the present invention, a specific neurotransmitter is secreted by image processing based on a human face image by finding that there is a predetermined region whose shape changes in the human face due to the secretion of the specific neurotransmitter. This makes it possible to easily estimate the mood of a person who changes.

また、本発明の一態様では、前記特定の神経伝達物質は、少なくともドーパミンを含み、前記領域設定手段は、眼を検出対象領域として設定し、前記変化検出手段は、前記検出対象領域として設定された眼の少なくとも上下いずれかの輪郭の曲率変化を検出し、前記気分推定手段は、前記変化検出手段により検出された曲率変化に基づいて、ドーパミンの分泌に基づく人の気分を推定する、ことを特徴とする。こうすることで、眼の輪郭の曲率変化に基づいてドーパミンの分泌に基づいて変化する人の気分を簡易に推定することができる。   In the aspect of the invention, the specific neurotransmitter includes at least dopamine, the region setting unit sets the eye as a detection target region, and the change detection unit is set as the detection target region. Detecting a change in curvature of at least one of the upper and lower contours of the eye, wherein the mood estimation means estimates a person's mood based on dopamine secretion based on the change in curvature detected by the change detection means. Features. By doing so, it is possible to easily estimate a person's mood that changes based on the dopamine secretion based on the curvature change of the eye contour.

また、本発明の一態様では、前記特定の神経伝達物質は、少なくともドーパミンを含み、前記領域設定手段は、顔に含まれる複数の部位を検出対象領域として設定し、前記変化検出手段は、前記領域設定手段により設定された各検出対象領域の位置関係の変化を検出し、前記気分推定手段は、前記変化検出手段により検出された位置関係の変化に基づいて、ドーパミンの分泌に基づく人の気分を推定する、ことを特徴とする。こうすることで、複数の検出対象領域の位置関係の変化に基づいてドーパミンの分泌に基づいて変化する人の気分を簡易に推定することができる。   In one aspect of the present invention, the specific neurotransmitter includes at least dopamine, the region setting unit sets a plurality of parts included in a face as a detection target region, and the change detection unit A change in the positional relationship of each detection target region set by the region setting unit is detected, and the mood estimation unit is configured to detect a human mood based on dopamine secretion based on the change in the positional relationship detected by the change detection unit. It is characterized by estimating. By doing so, it is possible to easily estimate a person's mood that changes based on the secretion of dopamine based on the change in the positional relationship between the plurality of detection target regions.

また、本発明の一態様では、前記特定の神経伝達物質は、少なくともドーパミンを含み、前記変化検出手段は、前記領域設定手段により設定された検出対象領域に含まれるエッジの濃度変化を検出し、前記気分推定手段は、前記変化検出手段により検出されたエッジの濃度変化に基づいて、ドーパミンの分泌に基づく人の気分を推定する、ことを特徴とする。こうすることで、検出対象領域に含まれるエッジの濃度変化に基づいてドーパミンの分泌に基づく人の気分を簡易に推定することができる。   In one aspect of the present invention, the specific neurotransmitter includes at least dopamine, and the change detection unit detects a change in the concentration of an edge included in the detection target region set by the region setting unit, The mood estimation means estimates a person's mood based on dopamine secretion based on a change in edge concentration detected by the change detection means. By doing so, it is possible to easily estimate a person's mood based on the secretion of dopamine based on a change in the concentration of the edge included in the detection target region.

以下、本発明の好適な実施の形態(以下、実施形態とする)について、図面を参照しつつ詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention (hereinafter referred to as embodiments) will be described in detail with reference to the drawings.

図1は、本実施形態に係るコンピュータを含む顔画像処理システムの全体を示すシステム構成図である。   FIG. 1 is a system configuration diagram showing an entire face image processing system including a computer according to the present embodiment.

図1に示されるように、顔画像処理システム1は、コンピュータ10とカメラ100とを含み、コンピュータ10とカメラ100とは接続されている。カメラ100は、CCD素子やCMOS素子にレンズを組み合わせた構造を有し、所定の時間間隔で(例えば、1/60秒毎に)レンズに写し出された画像を撮像するものである。本発明においては、カメラ100により人200の顔が撮像される。そして、カメラ100により撮像された人200の顔画像は、コンピュータ10に順次入力される。コンピュータ10では、入力された顔画像に画像処理を施して情報を取得し、取得した情報に基づいて顔画像に写し出された人200の気分を推定する。顔画像に写し出された人200の気分を推定するためにコンピュータ10が備える構成と、その構成を用いて行われる処理の一例について、以下、詳細に説明する。   As shown in FIG. 1, the face image processing system 1 includes a computer 10 and a camera 100, and the computer 10 and the camera 100 are connected. The camera 100 has a structure in which a lens is combined with a CCD element or a CMOS element, and takes an image projected on the lens at predetermined time intervals (for example, every 1/60 seconds). In the present invention, the face of the person 200 is imaged by the camera 100. The face images of the person 200 captured by the camera 100 are sequentially input to the computer 10. The computer 10 performs image processing on the input face image to acquire information, and estimates the mood of the person 200 projected on the face image based on the acquired information. The configuration of the computer 10 for estimating the mood of the person 200 projected on the face image and an example of processing performed using the configuration will be described in detail below.

図2には、本発明の実施形態に係るコンピュータ10のハードウェア構成の一例を示す。図1に示されるように、コンピュータ10は、物理的な構成として、プロセッサ12、メモリ14、グラフィックインターフェース16、I/Oインターフェース18を含み、各部はバス20を介して相互にデータ通信可能である。グラフィックインターフェース16には、ディスプレイ30が接続されており、グラフィックインターフェース16に内蔵されたVRAMに格納された描画データに基づいて画像(カメラ100で撮像された顔画像等を含む)が出力される。I/Oインターフェース18にはカメラ100が接続され、カメラ100で撮像された画像データがコンピュータ10に入力される。また、I/Oインターフェース18は、USBインターフェース等の一般的なパーソナルコンピュータに備えられるインターフェースであることとしてよい。   FIG. 2 shows an example of the hardware configuration of the computer 10 according to the embodiment of the present invention. As shown in FIG. 1, the computer 10 includes a processor 12, a memory 14, a graphic interface 16, and an I / O interface 18 as physical configurations, and each unit is capable of data communication with each other via a bus 20. . A display 30 is connected to the graphic interface 16, and an image (including a face image captured by the camera 100) is output based on drawing data stored in a VRAM built in the graphic interface 16. A camera 100 is connected to the I / O interface 18, and image data captured by the camera 100 is input to the computer 10. The I / O interface 18 may be an interface provided in a general personal computer such as a USB interface.

以下、コンピュータ10のハードウェアを利用して行われる顔画像処理の詳細を、図3に示されるフロー図を参照しつつ説明する。顔画像の処理は、コンピュータプログラムに従って、コンピュータ10の各部が動作することで実現されるものである。また、コンピュータプログラムは、メモリ14や図示しないハードディスク装置に格納されることとしてもよいし、DVD−ROM等の情報記憶媒体から読み込まれることとしてもよいし、ネットワークを介してコンピュータ10にダウンロードされることとしてもよい。   Details of the face image processing performed using the hardware of the computer 10 will be described below with reference to the flowchart shown in FIG. The face image processing is realized by the operation of each unit of the computer 10 in accordance with a computer program. The computer program may be stored in the memory 14 or a hard disk device (not shown), may be read from an information storage medium such as a DVD-ROM, or downloaded to the computer 10 via a network. It is good as well.

カメラ100により人の顔画像が撮像され、撮像された顔画像は、I/Oインターフェース18を介してコンピュータ10に入力される(S101)。入力された顔画像は、例えば、M×N画素の二次元格子画素から構成され、各画素は、R、G、B成分の階調値を持つディジタルデータ(以下、顔画像データとする)に変換されて、メモリ14に格納される。   A human face image is captured by the camera 100, and the captured face image is input to the computer 10 via the I / O interface 18 (S101). The input face image is composed of, for example, M × N two-dimensional lattice pixels, and each pixel is converted into digital data (hereinafter referred to as face image data) having gradation values of R, G, and B components. It is converted and stored in the memory 14.

コンピュータ10では、メモリ14に格納された顔画像データについて画像処理が行われる。なお、顔画像データにより示される顔画像について、顔画像の左上の頂点を原点(0,0)、そして原点から右方向にX座標、下方向にY座標を設定する。   In the computer 10, image processing is performed on the face image data stored in the memory 14. For the face image indicated by the face image data, the top left vertex of the face image is set to the origin (0, 0), the X coordinate is set to the right from the origin, and the Y coordinate is set to the bottom.

本発明は、特定の神経伝達物質の分泌により人の顔において形状変化する所定領域を検出対象領域として設定し、検出対象領域から検出される変化に基づいて、特定の神経伝達物質が分泌に基づく人の気分を推定する。   In the present invention, a predetermined region whose shape changes in a human face due to secretion of a specific neurotransmitter is set as a detection target region, and the specific neurotransmitter is based on secretion based on a change detected from the detection target region. Estimate a person's mood.

本実施形態では、特定の神経伝達物質をドーパミンとする。そして、以下の実験の知見に基づき、ドーパミンが分泌された場合に、人の顔において形状が変化する領域を特定した。   In this embodiment, the specific neurotransmitter is dopamine. And based on the knowledge of the following experiment, when dopamine was secreted, the area | region where a shape changes in a human face was specified.

実験においては、人が喫煙するとドーパミンが分泌されるという臨床事実に基づいて、図5に示す18名(健康な成人男性)に喫煙させ、喫煙前後の顔画像をそれぞれ撮像した。また、それ以外の喫煙しない3名(健康な成人男性2名と女性1名)には、喫煙動作と同じような動作(吸う動作)をしてもらい、その前後の顔画像をそれぞれ撮像した。なお、実験は、6時間以上の禁煙時間を設けてから行っている。図6乃至図8には、上記実験の結果を示す。   In the experiment, 18 people (healthy adult males) shown in FIG. 5 were allowed to smoke based on the clinical fact that dopamine is secreted when a person smokes, and facial images before and after smoking were respectively taken. In addition, the other three people who did not smoke (two healthy adult men and one woman) performed the same operation (sucking operation) as the smoking operation, and captured the front and back face images respectively. The experiment was conducted after quitting 6 hours or more. 6 to 8 show the results of the above experiment.

図6は、眼の輪郭を近似した2次曲線の2次係数の絶対値についての、喫煙前後での相対的な増加量を示している。増加量が大きいほど、眼の輪郭の曲率が大きく変化していることを示す。図6において、喫煙者についての結果を白の棒グラフで、非喫煙者についての結果を黒の棒グラフで示している(図7、8においても同様である)。なお、図6に示す右上の輪郭において、棒グラフに示される番号は、被験者を示す番号であり、1〜18は喫煙者、91〜93は非喫煙者を示している。また、他の部位については番号を省略するが、各被験者の棒グラフの位置関係は上記に示したものと同様である。なお、図6の棒グラフにおいて、縦軸には2次係数の絶対値の変化量を示している。そして、同グラフには、両眼のそれぞれについて、上側と下側のそれぞれの輪郭についての近似曲線の2次係数の変化量が示されている。そして、図6に示されるように、喫煙者(1〜18)において眼の輪郭の曲率が大きくなる傾向が見られ、特に下側の輪郭においてその傾向は顕著である。   FIG. 6 shows a relative increase in the absolute value of the quadratic coefficient of the quadratic curve approximating the eye contour before and after smoking. It shows that the curvature of the outline of an eye has changed greatly, so that the increase amount is large. In FIG. 6, the results for smokers are shown as white bar graphs, and the results for non-smokers are shown as black bar graphs (the same applies to FIGS. 7 and 8). In the upper right contour shown in FIG. 6, the numbers shown in the bar graph are numbers indicating subjects, 1 to 18 are smokers, and 91 to 93 are non-smokers. In addition, the numbers of other parts are omitted, but the positional relationship of each subject's bar graph is the same as that shown above. In the bar graph of FIG. 6, the vertical axis indicates the amount of change in the absolute value of the secondary coefficient. The graph shows the amount of change in the quadratic coefficient of the approximate curve for the upper and lower contours for each eye. And as FIG. 6 shows, the tendency for the curvature of the outline of an eye to become large in a smoker (1-18) is seen, and the tendency is remarkable especially in a lower outline.

図7は、眼と口の距離(右眼と右口角、左眼と左口角の距離)と、鼻と口との距離(鼻下と下唇下との距離)に関して、喫煙前後での変化量を示している。各距離は、両眼の距離によって除算して、正規化したものを用いる。図7の棒グラフにより示されるように、白の棒グラフで示される喫煙者(1〜18)において、顔の部位間の距離が増大する傾向、すなわち、顔が弛緩する状態に変化する傾向にあることが見て取れる。   FIG. 7 shows changes between before and after smoking with respect to the distance between the eyes and the mouth (the distance between the right eye and the right mouth corner, the distance between the left eye and the left mouth) and the distance between the nose and the mouth (the distance between the nose and the lower lip). Indicates the amount. Each distance is normalized by dividing by the distance between both eyes. As shown by the bar graph in FIG. 7, in the smokers (1 to 18) shown by the white bar graph, the distance between the facial parts tends to increase, that is, the face tends to change to a relaxed state. Can be seen.

図8は、顔の各部(左右眼窩下、左右鼻唇溝、左右口角、左右口角横、左右頬、眉間)について、喫煙前後での、エッジ成分の変化量を示している。鼻唇溝では、斜めをエッジの探索方向とし、眉間では左右の両方をエッジの探索方向とし、それ以外の部位では上下をエッジの探索方向としている。図8に示されるように、ドーパミンが分泌されると、皺が浅くなる傾向にあり、特に眉間、眼窩下、頬においてその傾向は顕著であることが分かる。   FIG. 8 shows the amount of change of the edge component before and after smoking for each part of the face (left and right under the orbit, left and right nostrils, left and right mouth corners, left and right mouth corners, left and right cheeks, and between eyebrows). In the nasal cleft, the diagonal direction is the edge search direction, and between the eyebrows, both the left and right sides are the edge search direction, and in other parts, the top and bottom are the edge search direction. As shown in FIG. 8, when dopamine is secreted, the wrinkles tend to become shallow, and this tendency is particularly remarkable in the eyebrows, under the orbit, and cheeks.

以上の実験結果に基づいて、ドーパミンが分泌されると、人の顔においては、眼の上側または下側の輪郭線の曲率が大きくなるという変化や、顔の表面が全体的に弛緩することにより生ずる皺の形状変化が現れるということができる。本実施形態では、ドーパミンの分泌を、上記の変化を顔画像に基づいて検出することにより推定する。   Based on the above experimental results, when dopamine is secreted, in the human face, the curvature of the upper or lower contour of the eye increases, or the entire surface of the face relaxes. It can be said that the shape change of the resulting cocoon appears. In the present embodiment, dopamine secretion is estimated by detecting the above change based on the face image.

図4を用いて、本実施形態におけるドーパミンの分泌を推定する際の具体的基準を説明する。まず、眼の輪郭線の曲率変化を検出するために、図4(A)に示されるように、顔画像300に含まれる顔領域310の中から、眼312を検出対象領域として設定する。そして、顔の表面が全体的に弛緩するという変化は、図4(B)に示されるように、眼312と口316との距離(d1)と、鼻314と口316との距離(d2)のそれぞれの変化に基づいて検出される。従って、鼻314と口316も、検出対象領域として設定する。また、顔の表面が全体的に弛緩するという変化は、図4(C)に示されるように、眉間318の皺の濃さの変化に基づいても検出される。従って、眉間318も検出対象領域として設定する。皺の濃さの変化は、眉間以外の部位、例えば、下眼瞼、頬、鼻唇溝、口角の横、口角からも検出することとしてもよい。本実施形態では、眼、鼻、口、眉間を検出対象領域として設定し、各検出対象領域から得られる情報に基づいてドーパミンの分泌を推定する。   With reference to FIG. 4, specific criteria for estimating dopamine secretion in the present embodiment will be described. First, in order to detect a change in curvature of the eye contour, the eye 312 is set as a detection target region from the face region 310 included in the face image 300 as shown in FIG. Then, as shown in FIG. 4B, the change that the face surface relaxes as a whole is the distance (d1) between the eye 312 and the mouth 316 and the distance (d2) between the nose 314 and the mouth 316. It is detected based on each change. Accordingly, the nose 314 and the mouth 316 are also set as detection target areas. Moreover, the change that the surface of the face relaxes as a whole is also detected based on the change in the darkness of the eyebrows 318 as shown in FIG. 4C. Therefore, the eyebrows 318 is also set as the detection target area. The change in the darkness of the eyelids may be detected from a part other than the eyebrows, for example, the lower eyelid, the cheek, the nasal lip, the side of the mouth corner, and the mouth corner. In this embodiment, the eye, nose, mouth, and eyebrows are set as detection target regions, and dopamine secretion is estimated based on information obtained from each detection target region.

以下、顔画像から特定される検出対象領域に基づいて算出される情報量に従って、ドーパミンの分泌を推定する処理の詳細を説明する。   Hereinafter, details of the process of estimating the secretion of dopamine according to the amount of information calculated based on the detection target region specified from the face image will be described.

[顔領域の特定]
まず、入力された顔画像の中から、顔が写し出されている顔領域を特定する処理が行われる(S102)。本実施形態では、眼や口においては顔の他の部分に比較して輝度が暗くなっていることに基づいて、眼と口の候補領域を特定し、その候補領域の位置に基づいて顔全体の領域を特定することとする。
[Identify face area]
First, a process of specifying a face area where a face is projected from the input face image is performed (S102). In the present embodiment, the eye and mouth candidate areas are identified based on the fact that the brightness of the eyes and mouth is lower than that of other parts of the face, and the entire face is determined based on the positions of the candidate areas. This area is specified.

眼と口の候補領域は、輝度が極小になる輝度極小点を含み、輝度が大きくなっていく輝度変曲点により囲まれた領域として検出される。輝度極小点と、輝度変曲点とは、以下のようにして決定される。   The eye and mouth candidate area is detected as an area surrounded by a luminance inflection point including a luminance minimum point at which the luminance is minimized and increasing in luminance. The luminance minimum point and the luminance inflection point are determined as follows.

メモリ14に格納された顔画像データに基づいて、Y軸方向の輝度の勾配(gradient)と、ラプラシアンとが計算される。そして、計算された勾配とラプラシアンに基づいて、輝度が極小になる輝度極小点と、輝度が大きくなっていく輝度変曲点とが決定される。輝度極小点は、勾配が0で、ラプラシアンが正の点として決定される。また、輝度変曲点は、勾配が正で、ラプラシアンが0の点として決定される。   Based on the face image data stored in the memory 14, a luminance gradient in the Y-axis direction and a Laplacian are calculated. Then, based on the calculated gradient and Laplacian, a luminance minimum point at which the luminance is minimized and a luminance inflection point at which the luminance increases are determined. The brightness minimum point is determined as a point having a gradient of 0 and a positive Laplacian. The luminance inflection point is determined as a point having a positive gradient and a Laplacian of 0.

こうして決定された輝度極小点と輝度変曲点とに基づいて、顔画像の中から、眼と口の候補領域が選択される。そして、選択された眼と口の候補領域について、それぞれの顔における位置関係として適切な組合せを判断し、適切な組合せを眼と口の領域として特定する。こうして特定された両眼の重心位置を基準として、顔の存在する候補領域を切り出す。切り出された候補領域について顔標準パターンとのマッチングを行い、顔が正常に写し出されていることが確認されると、その候補領域を顔領域とする。   Based on the brightness minimum point and the brightness inflection point thus determined, eye and mouth candidate regions are selected from the face image. For the selected eye and mouth candidate regions, an appropriate combination is determined as a positional relationship in each face, and an appropriate combination is specified as the eye and mouth region. A candidate area where a face exists is cut out based on the position of the center of gravity of both eyes thus identified. The extracted candidate area is matched with the face standard pattern, and when it is confirmed that the face is normally projected, the candidate area is set as the face area.

なお、顔領域の特定は、他の公知の方法を用いることとしても構わない。例えば、顔画像データから抽出される肌色領域に基づいて、顔画像データに含まれる顔領域を特定することとしてもよい。   Note that the face area may be specified by using another known method. For example, the face area included in the face image data may be specified based on the skin color area extracted from the face image data.

次に、特定された顔領域の中から、検出対象領域(眼、鼻、口、眉間)の各部を特定する処理(S103)について説明する。   Next, the process (S103) for identifying each part of the detection target area (between eyes, nose, mouth, and eyebrows) from the identified face area will be described.

[眼の特定]
顔領域の特定処理(S102)により特定された顔領域の中から、眼を特定する。眼の特定は、顔領域について、眼の輪郭を抽出するための眼輪郭抽出フィルタを用いたフィルタ処理を施すことにより行われる。フィルタ処理は、顔領域の特定処理において選択された眼の候補領域を含む領域に対して行うこととしてもよい。眼輪郭フィルタは、眼の周囲の肌色の画像に対して相対的に暗い曲線状の目の輪郭が適切に抽出されるように、画像を分離するフィルタのパラメータが設定される。なお、眼の特定についてのフィルタの関数やパラメータについての詳細は、公知の文献(例えば、特許文献の特開2004−30006号公報等)に記載のものを用いることとしてよい。
[Identification of eyes]
Eyes are specified from the face areas specified by the face area specifying process (S102). The identification of the eyes is performed by applying a filter process using an eye contour extraction filter for extracting the eye contour to the face region. The filtering process may be performed on an area including the eye candidate area selected in the face area specifying process. In the eye contour filter, parameters of a filter for separating an image are set so that a dark curved contour of the eye is appropriately extracted with respect to a skin color image around the eye. The details of the filter function and parameters for eye identification may be those described in known documents (for example, Japanese Patent Application Laid-Open No. 2004-30006).

[鼻の特定]
顔領域の特定処理(S102)により特定された顔領域の中から、鼻を特定する。鼻の特定は、顔領域のX軸方向とY軸方向の両方についてエッジを検出し、鼻孔を特定することで行われる。鼻孔は、顔領域における黒くて丸い形状の領域として特定される。X軸方向とY軸方向の2方向についてエッジを検出するのは、鼻孔の形状は、顔の向きによっては縦長にも横長にもなり得るので、XとYの2方向からエッジを検出することで鼻孔の検出精度が向上されるためである。ここで、鼻孔の検索は、既に特定された眼の位置に基づいて、検索領域を絞って行うこととしてもよい。なお、鼻を特定する処理の詳細は、公知の文献(例えば、特許文献の特開2006−38689号公報等)の記載を参照することとしてもよい。
[Specification of nose]
A nose is specified from the face areas specified by the face area specifying process (S102). The nose is specified by detecting an edge in both the X-axis direction and the Y-axis direction of the face area and specifying the nostril. The nostril is specified as a black and round region in the face region. Edges are detected in two directions, the X-axis direction and the Y-axis direction, because the shape of the nostrils can be either vertically or horizontally depending on the orientation of the face. This is because the detection accuracy of the nostril is improved. Here, the search for the nostrils may be performed by narrowing the search area based on the eye positions that have already been specified. The details of the process for specifying the nose may be referred to the description of a known document (for example, Japanese Patent Application Laid-Open No. 2006-38689).

[口の特定]
顔領域の特定処理(S102)により特定された顔領域の中から、口を特定する。口の特定は、顔領域内の画素群から、口唇の色空間を定義する色成分値の範囲にその色成分値が含まれる画素群を抽出し、抽出した画素群が占める領域の左右幅と上下幅との縦横比率に応じて口を特定することで行う。なお、口を特定する処理の詳細は、公知の文献(例えば、特許文献の特開2003−187247号公報等)の記載を参照することとしてもよい。
[Mouth identification]
The mouth is specified from the face areas specified by the face area specifying process (S102). To specify the mouth, a pixel group including the color component value in the range of the color component value that defines the color space of the lips is extracted from the pixel group in the face region, and the left and right widths of the region occupied by the extracted pixel group This is done by specifying the mouth according to the aspect ratio with the vertical width. The details of the process for specifying the mouth may be referred to the description of a known document (for example, Japanese Patent Application Laid-Open No. 2003-187247).

[眉間の特定]
顔領域の特定処理(S102)により特定された顔領域の中から、眉間を特定する。眉間を特定する上では、まず、眉の位置を特定する。眉の位置は、既に検出された眼の位置の上方をエッジ検出に基づいて検索する。そして、検索された両眉の位置に基づき、その中間位置を眉間として特定する。
[Specification between eyebrows]
An eyebrow space is specified from the face areas specified by the face area specifying process (S102). In specifying the space between the eyebrows, first, the position of the eyebrows is specified. The eyebrow position is searched based on edge detection above the already detected eye position. And based on the searched position of both eyebrows, the intermediate position is specified as the space between eyebrows.

次に、顔領域から特定された顔の各検出対象領域に基づいて、ドーパミンが分泌されることで顔に生じる変化を検出するための特徴量を算出する処理(S104)を説明する。   Next, a process (S104) for calculating a feature amount for detecting a change that occurs in the face due to secretion of dopamine based on each detection target area of the face specified from the face area will be described.

[眼の輪郭の曲率変化に基づく特徴量の算出]
まず、顔画像から検出された眼に基づいて、眼の上下それぞれの輪郭の曲率を算出する。眼の上下の輪郭の曲率は、眼の輪郭線上の複数の画素の座標値に基づいてそれぞれ算出される。また、眼の輪郭の曲率変化量を算出するにあたり、標準状態における眼の上下の輪郭の曲率をそれぞれ算出し記憶しておくものとする。記憶される曲率の値は、初期設定時に撮像された顔画像に基づいて算出される眼の輪郭の曲率であることとしてもよいし、一定の期間撮像された顔画像に基づいて計算された眼の輪郭の曲率の平均値としてもよい。そして、算出された上下それぞれの輪郭の曲率と、メモリ14に記憶される曲率との差を計算して、この値を眼の上下それぞれの輪郭に関する曲率変化量とする。なお、眼の輪郭線の曲率変化の特徴量として、眼の輪郭線上の画素の座標値に基づいて、最小二乗法により輪郭線の2次曲線を求め、その2次曲線における2次係数の値の変化量を用いることとしてもよい。
[Calculation of feature values based on changes in curvature of eye contour]
First, based on the eyes detected from the face image, the curvatures of the contours of the upper and lower eyes are calculated. The curvatures of the upper and lower eye contours are calculated based on the coordinate values of a plurality of pixels on the eye contour. In calculating the curvature change amount of the eye contour, the curvatures of the upper and lower eye contours in the standard state are calculated and stored. The stored curvature value may be the curvature of the contour of the eye calculated based on the face image captured at the initial setting, or the eye calculated based on the face image captured for a certain period of time. It is good also as an average value of curvature of the outline of. Then, the difference between the calculated curvature of each of the upper and lower contours and the curvature stored in the memory 14 is calculated, and this value is used as the curvature change amount for each of the upper and lower contours of the eye. In addition, as a feature quantity of the curvature change of the eye contour, a quadratic curve of the contour is obtained by the least square method based on the coordinate value of the pixel on the eye contour, and the value of the quadratic coefficient in the quadratic curve The amount of change may be used.

[顔の弛緩状態の変化に基づく特徴量の算出]
次に、顔の弛緩状態を判断するための特徴量として、上述したように本実施形態では2つの距離(眼と口、鼻と口との距離)を算出する。まず、眼と口の距離は、両眼を結ぶ直線の中心の位置と、口の両端(口角)を結ぶ直線の中心の位置との距離により算出される。鼻と口との距離は、鼻と、口の下唇下端との距離を算出する。これらの距離は、アフィン変換により、顔画像が正面に向いた状態に補正した状態で距離を算出して、顔の傾きにより距離変化の影響を抑制することとしてもよい。その他にも、顔の傾きにより距離変化の影響を抑制するために、例えば、両眼の距離、傾きを計算し、その値に基づいてそれぞれの距離を補正することとしてもよい。
[Calculation of features based on changes in the relaxed state of the face]
Next, as described above, in the present embodiment, two distances (the distance between the eye and the mouth and the nose and the mouth) are calculated as feature amounts for determining the relaxed state of the face. First, the distance between the eyes and the mouth is calculated from the distance between the position of the center of the straight line connecting both eyes and the position of the center of the straight line connecting both ends (mouth angles) of the mouth. As the distance between the nose and the mouth, the distance between the nose and the lower end of the lower lip of the mouth is calculated. These distances may be calculated by affine transformation in a state where the face image is corrected to face forward, and the influence of the distance change may be suppressed by the face inclination. In addition, in order to suppress the influence of the distance change due to the inclination of the face, for example, the distance and inclination of both eyes may be calculated, and each distance may be corrected based on the value.

また、眼と口、鼻と口のそれぞれの距離変化量を算出するにあたり、標準状態における各距離を算出し記憶しておくものとする。記憶される距離は、初期設定時に撮像された顔画像に基づいて算出されるそれぞれの距離であることとしてもよいし、一定の期間撮像された顔画像に基づいて計算されたそれぞれの距離の平均値としてもよい。そして、算出されたそれぞれの距離と、メモリ14に記憶されるそれぞれの距離との差を計算して、この値を眼と口、鼻と口のそれぞれの距離変化量とする。   Further, when calculating the distance change amounts of the eyes and mouth, and the nose and mouth, each distance in the standard state is calculated and stored. The stored distance may be a distance calculated based on the face image captured at the initial setting, or an average of the distances calculated based on the face image captured for a certain period of time. It may be a value. Then, a difference between each calculated distance and each distance stored in the memory 14 is calculated, and this value is set as a distance change amount of each of the eyes and mouth and the nose and mouth.

[しわの深さの変化に基づく特徴量の算出]
次に、顔画像から特定した眉間の領域について、X軸方向をエッジの探索方向として、眉間領域の縦皺に起因するエッジ成分を計算する。そして、眉間領域の全画素について計算したエッジ成分を積算して得た値を、縦方向のエッジ濃度とする。また、Y軸方向をエッジの探索方向として、眉間領域の横皺に起因するエッジ成分を計算する。そして、眉間領域の全画素について計算したエッジ成分を積算して得た値を、横方向のエッジ濃度とする。
[Calculation of features based on wrinkle depth change]
Next, for the region between the eyebrows identified from the face image, the edge component due to the vertical eyelid of the region between the eyebrows is calculated with the X-axis direction as the edge search direction. Then, a value obtained by integrating the edge components calculated for all the pixels in the interbrow area is set as the vertical edge density. Also, the edge component due to the lying down of the interbrow region is calculated with the Y-axis direction as the edge search direction. A value obtained by integrating the edge components calculated for all the pixels in the interbrow region is defined as the edge density in the horizontal direction.

また、縦方向と横方向のそれぞれのエッジ濃度のエッジ濃度変化量を算出するにあたり、標準状態におけるそれぞれのエッジ濃度を算出し記憶しておくものとする。記憶されるエッジ濃度は、初期設定時に撮像された顔画像に基づいて算出されるそれぞれのエッジ濃度であることとしてもよいし、一定の期間撮像された顔画像に基づいて計算されたそれぞれのエッジ濃度の平均値としてもよい。そして、算出された縦方向と横方向のそれぞれのエッジ濃度と、メモリ14に記憶されるそれぞれのエッジ濃度との差を計算して、この値をそれぞれのエッジ濃度変化量とする。   In calculating the edge density change amount of each edge density in the vertical direction and the horizontal direction, each edge density in the standard state is calculated and stored. The stored edge density may be each edge density calculated based on the face image captured at the initial setting, or each edge calculated based on the face image captured for a certain period of time. It is good also as an average value of density. Then, a difference between the calculated edge density in the vertical direction and the horizontal direction and each edge density stored in the memory 14 is calculated, and this value is set as each edge density change amount.

[ドーパミンの分泌推定]
そして、算出された曲率変化量と、距離変化量と、エッジ濃度変化量とに基づいて、撮像された顔画像に写し出された人物においてドーパミンが分泌されたか否かを推定する(S105)。ドーパミンは、眼の輪郭の曲率が大きくなっており、顔が弛緩しており、皺が伸びている場合に、分泌されていると推定される。そこで、曲率変化量が正であり、距離変化量が共に正であり、エッジ濃度変化量が共に負である場合に、ドーパミンが分泌されていると推定する。なお、この推定基準は、一例であり、算出された曲率変化量と、距離変化量と、エッジ濃度変化量のどのように組み合わせて推定するかは上記の例に限られるものではない。
[Estimation of dopamine secretion]
Then, based on the calculated curvature change amount, distance change amount, and edge density change amount, it is estimated whether or not dopamine is secreted in the person imaged in the captured face image (S105). Dopamine is presumed to be secreted when the curvature of the eye contour is large, the face is relaxed, and the eyelids are stretched. Therefore, when the curvature change amount is positive, the distance change amounts are both positive, and the edge concentration change amounts are both negative, it is estimated that dopamine is secreted. Note that this estimation criterion is an example, and how to estimate the calculated curvature change amount, distance change amount, and edge density change amount is not limited to the above example.

[気分の推定]
ステップS105において分泌されていると推定された神経伝達物質に基づいて、撮像された顔画像に写し出された人の気分を推定する(S106)。本実施形態では、ステップS105においてドーパミンが分泌されたと推定される場合には、人がリラックスした気分になったと推定される。
[Estimation of mood]
Based on the neurotransmitter estimated to be secreted in step S105, the person's mood projected on the captured face image is estimated (S106). In the present embodiment, when it is estimated that dopamine is secreted in step S105, it is estimated that the person feels relaxed.

以上の本発明の実施形態に係るコンピュータ(顔画像処理装置)によれば、ドーパミンが分泌された場合に人の顔において変化が現れ得る領域を検出対象領域として設定し、設定された検出対象領域の変化に基づいて、ドーパミンが分泌されたことにより変化する人の気分を簡易に推定できる。   According to the computer (face image processing apparatus) according to the above-described embodiment of the present invention, a region where a change can appear in a human face when dopamine is secreted is set as a detection target region, and the set detection target region Based on this change, it is possible to easily estimate a person's mood that changes due to the secretion of dopamine.

また、本発明は上記の実施形態に限定されるものではない。   Further, the present invention is not limited to the above embodiment.

本実施形態では、神経伝達物質としてドーパミンに焦点を絞って説明したが、他の神経伝達物質についても本発明の技術を適用することとしてもよい。その場合には、分泌されたと推定される神経伝達物質の組合せに基づいて、撮像された人の気分を推定することとしてもよい。   In the present embodiment, description has been made focusing on dopamine as a neurotransmitter, but the technique of the present invention may be applied to other neurotransmitters. In that case, it is good also as estimating the imaged person's mood based on the combination of the neurotransmitter estimated to be secreted.

本実施形態に係るコンピュータを含む顔画像処理システムの全体を示すシステム構成図である。1 is a system configuration diagram illustrating an entire face image processing system including a computer according to an embodiment. コンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a computer. 顔画像処理のフロー図である。It is a flowchart of face image processing. ドーパミンの分泌を推定する際の基準を説明する図である。It is a figure explaining the standard at the time of estimating the secretion of dopamine. 被験者の情報を示す表である。It is a table | surface which shows a test subject's information. 実験結果の一つを示すグラフである。It is a graph which shows one of an experimental result. 実験結果の一つを示すグラフである。It is a graph which shows one of an experimental result. 実験結果の一つを示すグラフである。It is a graph which shows one of an experimental result.

符号の説明Explanation of symbols

1 顔画像処理システム、10 コンピュータ、12 プロセッサ、14 メモリ、16 グラフィックインターフェース、18 I/Oインターフェース、20 バス、30 ディスプレイ、100 カメラ、200 人、300 顔画像、310 顔領域、312 眼、314 鼻、316 口、318 眉間。   1 face image processing system, 10 computer, 12 processor, 14 memory, 16 graphic interface, 18 I / O interface, 20 bus, 30 display, 100 camera, 200 people, 300 face image, 310 face area, 312 eyes, 314 nose 316 mouths, 318 eyebrows.

Claims (5)

人の顔を撮像した顔画像を順次取得する画像取得手段と、
特定の神経伝達物質の分泌により人の顔において形状が変化する所定領域を前記顔画像における検出対象領域として設定する領域設定手段と、
前記画像取得手段により順次取得された顔画像に基づいて、前記領域設定手段により設定された検出対象領域の変化を検出する変化検出手段と、
前記変化検出手段により検出された変化に基づいて特定の神経伝達物質に基づいて生ずる人の気分を推定する気分推定手段と、を含む、
ことを特徴とする顔画像処理装置。
Image acquisition means for sequentially acquiring face images obtained by imaging human faces;
A region setting means for setting, as a detection target region in the face image, a predetermined region whose shape changes in a human face due to secretion of a specific neurotransmitter;
A change detection unit that detects a change in a detection target region set by the region setting unit based on the face images sequentially acquired by the image acquisition unit;
Mood estimation means for estimating a person's mood generated based on a specific neurotransmitter based on the change detected by the change detection means,
A face image processing apparatus characterized by that.
請求項1に記載の顔画像処理装置であって、
前記特定の神経伝達物質は、少なくともドーパミンを含み、
前記領域設定手段は、眼を検出対象領域として設定し、
前記変化検出手段は、前記検出対象領域として設定された眼の少なくとも上下いずれかの輪郭の曲率変化を検出し、
前記気分推定手段は、前記変化検出手段により検出された曲率変化に基づいて、ドーパミンの分泌に基づく人の気分を推定する、
ことを特徴とする顔画像処理装置。
The face image processing apparatus according to claim 1,
The specific neurotransmitter comprises at least dopamine;
The region setting means sets the eye as a detection target region,
The change detecting means detects a curvature change of at least one of the upper and lower contours of the eye set as the detection target region,
The mood estimation means estimates a person's mood based on dopamine secretion based on the change in curvature detected by the change detection means.
A face image processing apparatus characterized by that.
請求項1又は2に記載の顔画像処理装置であって、
前記特定の神経伝達物質は、少なくともドーパミンを含み、
前記領域設定手段は、顔に含まれる複数の部位を検出対象領域として設定し、
前記変化検出手段は、前記領域設定手段により設定された各検出対象領域の位置関係の変化を検出し、
前記気分推定手段は、前記変化検出手段により検出された位置関係の変化に基づいて、ドーパミンの分泌に基づく人の気分を推定する、
ことを特徴とする顔画像処理装置。
The face image processing apparatus according to claim 1 or 2,
The specific neurotransmitter comprises at least dopamine;
The region setting means sets a plurality of parts included in the face as detection target regions,
The change detection means detects a change in the positional relationship of each detection target area set by the area setting means,
The mood estimation means estimates a person's mood based on dopamine secretion based on the change in the positional relationship detected by the change detection means.
A face image processing apparatus characterized by that.
請求項1乃至3のいずれかに記載の顔画像処理装置であって、
前記特定の神経伝達物質は、少なくともドーパミンを含み、
前記変化検出手段は、前記領域設定手段により設定された検出対象領域に含まれるエッジの濃度変化を検出し、
前記気分推定手段は、前記変化検出手段により検出されたエッジの濃度変化に基づいて、ドーパミンの分泌に基づく人の気分を推定する、
ことを特徴とする顔画像処理装置。
The face image processing apparatus according to any one of claims 1 to 3,
The specific neurotransmitter comprises at least dopamine;
The change detecting means detects a change in density of an edge included in the detection target area set by the area setting means,
The mood estimation means estimates a person's mood based on dopamine secretion based on the edge concentration change detected by the change detection means.
A face image processing apparatus characterized by that.
人の顔を撮像した顔画像を順次取得する画像取得手段、
特定の神経伝達物質の分泌により人の顔において形状が変化する所定領域を前記顔画像における検出対象領域として設定する領域設定手段、
前記画像取得手段により順次取得された顔画像に基づいて、前記領域設定手段により設定された検出対象領域の変化を検出する変化検出手段、
前記変化検出手段により検出された変化に基づいて、特定の神経伝達物質に基づいて生ずる人の気分を推定する気分推定手段、
としてコンピュータを機能させるためのプログラム。
Image acquisition means for sequentially acquiring face images obtained by imaging human faces;
A region setting means for setting a predetermined region whose shape changes in a human face due to secretion of a specific neurotransmitter as a detection target region in the face image;
A change detection unit that detects a change in a detection target region set by the region setting unit based on the face images sequentially acquired by the image acquisition unit;
Mood estimation means for estimating a person's mood that occurs based on a specific neurotransmitter based on the change detected by the change detection means;
As a program to make the computer function.
JP2006218993A 2006-08-10 2006-08-10 Face image processor and program for computer Pending JP2008046691A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006218993A JP2008046691A (en) 2006-08-10 2006-08-10 Face image processor and program for computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006218993A JP2008046691A (en) 2006-08-10 2006-08-10 Face image processor and program for computer

Publications (1)

Publication Number Publication Date
JP2008046691A true JP2008046691A (en) 2008-02-28

Family

ID=39180405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006218993A Pending JP2008046691A (en) 2006-08-10 2006-08-10 Face image processor and program for computer

Country Status (1)

Country Link
JP (1) JP2008046691A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013000300A (en) * 2011-06-15 2013-01-07 Nissan Motor Co Ltd Mood determining apparatus and mood determining method
CN104545950A (en) * 2014-12-23 2015-04-29 上海博康智能信息技术有限公司 Non-contact type lie detection method and lie detection system thereof
JP2022058471A (en) * 2016-08-02 2022-04-12 アトラス5ディー, インコーポレイテッド Systems and methods for identifying and / or identifying and / or pain, fatigue, mood, and intent with privacy protection
WO2023037749A1 (en) * 2021-09-07 2023-03-16 株式会社島津製作所 Evaluation method, evaluation system, and program
WO2023053784A1 (en) * 2021-10-01 2023-04-06 パナソニックIpマネジメント株式会社 Facial type diagnostic device, facial type diagnostic method, and program
JP7297342B1 (en) 2022-09-26 2023-06-26 株式会社Creator’s NEXT Recommendation by analysis of brain information

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013000300A (en) * 2011-06-15 2013-01-07 Nissan Motor Co Ltd Mood determining apparatus and mood determining method
CN104545950A (en) * 2014-12-23 2015-04-29 上海博康智能信息技术有限公司 Non-contact type lie detection method and lie detection system thereof
JP2022058471A (en) * 2016-08-02 2022-04-12 アトラス5ディー, インコーポレイテッド Systems and methods for identifying and / or identifying and / or pain, fatigue, mood, and intent with privacy protection
WO2023037749A1 (en) * 2021-09-07 2023-03-16 株式会社島津製作所 Evaluation method, evaluation system, and program
JPWO2023037749A1 (en) * 2021-09-07 2023-03-16
JP7697518B2 (en) 2021-09-07 2025-06-24 株式会社島津製作所 Evaluation method, evaluation system, and program
WO2023053784A1 (en) * 2021-10-01 2023-04-06 パナソニックIpマネジメント株式会社 Facial type diagnostic device, facial type diagnostic method, and program
JP2023053734A (en) * 2021-10-01 2023-04-13 パナソニックIpマネジメント株式会社 Face type diagnostic device, face type diagnostic method and program
JP7297342B1 (en) 2022-09-26 2023-06-26 株式会社Creator’s NEXT Recommendation by analysis of brain information
JP2024047181A (en) * 2022-09-26 2024-04-05 株式会社Creator’s NEXT Recommendations based on brain information analysis

Similar Documents

Publication Publication Date Title
JP4307496B2 (en) Facial part detection device and program
JP4198951B2 (en) Group attribute estimation method and group attribute estimation apparatus
KR101190686B1 (en) Image processing apparatus, image processing method, and computer readable recording medium
EP3241151B1 (en) An image face processing method and apparatus
JP4692526B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP4936491B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
KR101510798B1 (en) Portable Facial Expression Training System and Methods thereof
JP2008538998A (en) Use of time when recognizing a person in an image
JP2013058060A (en) Person attribute estimation device, person attribute estimation method and program
JP6191943B2 (en) Gaze direction estimation device, gaze direction estimation device, and gaze direction estimation program
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6969878B2 (en) Discriminator learning device and discriminator learning method
CN115039150A (en) Determination method, determination device, and determination program
JP2010262392A (en) Image processor, image processing method and program for making computer execute the method
JPH08287216A (en) In-face position recognizing method
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
JP3970573B2 (en) Facial image recognition apparatus and method
US9330300B1 (en) Systems and methods of analyzing images
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2008046691A (en) Face image processor and program for computer
JP2020027390A (en) Attention target estimation device and attention target estimation method
JP5276454B2 (en) Facial expression measurement method, facial expression measurement program, and facial expression measurement apparatus
JP6544970B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2017205426A (en) Psychological state evaluation program and psychological state evaluation apparatus
JP4623171B2 (en) Pupil detection device, program for pupil detection device, and pupil detection method