[go: up one dir, main page]

JP2009026125A - Emotion analysis device, emotion analysis method, and program - Google Patents

Emotion analysis device, emotion analysis method, and program Download PDF

Info

Publication number
JP2009026125A
JP2009026125A JP2007189520A JP2007189520A JP2009026125A JP 2009026125 A JP2009026125 A JP 2009026125A JP 2007189520 A JP2007189520 A JP 2007189520A JP 2007189520 A JP2007189520 A JP 2007189520A JP 2009026125 A JP2009026125 A JP 2009026125A
Authority
JP
Japan
Prior art keywords
user
contact
emotion
feature
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007189520A
Other languages
Japanese (ja)
Inventor
Mitsuru Abe
満 安倍
Widodo Ari
ウィドド アリ
Yasutaka Yamauchi
康孝 山内
Takeshi Matsui
松井  武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2007189520A priority Critical patent/JP2009026125A/en
Publication of JP2009026125A publication Critical patent/JP2009026125A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an emotion analysis device which can estimate a variety of user's emotion on the basis of a variety of his or her contacting action which reflects his or her emotion. <P>SOLUTION: The emotion analysis device 1 includes a housing part 2 and a software part 3. The housing part 2 includes: a contacting member 4 which a user's hand contacts by his or her contacting action when he or she makes the contacting action which reflects his or her emotion; an image sensor 5 which detects image data relating to the contacting state of user's hand in his or her contacting action; and a pressure sensor 6 which detects pressure data relating to the contacting state of user's hand in his or her contacting action. The software part 3 is provided with: a characteristic pattern extraction part 10 which extracts a plurality of characteristic patterns on the basis of the image data and the pressure data; and a pattern analysis part 11 which executes pattern analysis for estimating the user's emotion from the plurality of characteristic patterns, by using a neural network. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、デバイスにユーザが手を接触させる行動からユーザの感情に関する情報を抽出する機能を備えた感情分析デバイスに関する。   The present invention relates to an emotion analysis device having a function of extracting information related to a user's emotion from an action in which the user touches the device.

従来、車両を運転するドライバ(ユーザ)に対して、経路案内や音楽などの各種の情報を提供するときに、ドライバの嗜好性に合わせて情報を提供する情報提供装置が知られている(例えば特許文献1参照)。この従来の情報提供装置では、提供した情報に対するドライバ(ユーザ)の反応に基づいてユーザの感情を分析し、その分析結果に応じて情報の提供率を変化させる。例えば、ドライバ(ユーザ)に情報を提供したときのユーザの顔の画像に基づいて、ユーザの感情の分析が行われる。または、ドライバ(ユーザ)に情報を提供したときのユーザの声の大小(音量)や発音の抑揚に基づいて、ユーザの感情の分析が行われる。
特開2007−86880号公報(第6−12頁、第1図)
2. Description of the Related Art Conventionally, an information providing apparatus that provides information according to a driver's preference when providing various information such as route guidance and music to a driver (user) driving a vehicle is known (for example, Patent Document 1). In this conventional information providing apparatus, a user's emotion is analyzed based on a driver's (user's) reaction to the provided information, and the information provision rate is changed according to the analysis result. For example, the emotion of the user is analyzed based on the image of the user's face when the information is provided to the driver (user). Alternatively, analysis of the user's emotion is performed based on the volume (volume) of the user's voice when the information is provided to the driver (user) and the inflection of pronunciation.
Japanese Unexamined Patent Publication No. 2007-86880 (page 6-12, FIG. 1)

しかしながら、従来の情報提供装置においては、ドライバ(ユーザ)に情報を提供したときのユーザの顔の画像またはユーザの声の大小(音量)や発音の抑揚に基づいて、ユーザの感情の分析が行われる。ところが、ユーザの持つ様々な感情のなかには、ユーザの感情の変化が顔の表情等に現れにくいものがある。そのようなユーザの感情については、ユーザの感情が変化したときの顔の表情等の変化が比較的小さいため、従来の装置ではユーザの感情を推定することが容易でない。また、声は周りの騒音の影響を受けやすく、顔の画像は環境光の影響を受けやすいので、分析性能が劣化することがある。そのため、騒音や環境光の影響が強い状況では、従来の装置を用いてユーザの感情を推定することが容易でない。   However, in the conventional information providing apparatus, the emotion of the user is analyzed based on the image of the user's face when the information is provided to the driver (user), the magnitude (volume) of the user's voice, or the inflection of pronunciation. Is called. However, among the various emotions possessed by the user, there are those in which changes in the user's emotion are unlikely to appear in facial expressions or the like. With regard to such user emotions, changes in facial expressions and the like when the user emotions change are relatively small, so it is not easy to estimate the user emotions with conventional devices. In addition, the voice is easily affected by surrounding noise, and the face image is easily affected by ambient light, so the analysis performance may be deteriorated. Therefore, it is not easy to estimate the user's emotion using a conventional device in a situation where the influence of noise or ambient light is strong.

本発明は、上記の課題に鑑みてなされたもので、ユーザの様々な感情を推定することのできる感情分析デバイスを提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an emotion analysis device capable of estimating various emotions of a user.

本発明の感情分析デバイスは、ユーザが手を接触させる接触部材であって、前記ユーザの感情を反映する接触行動を前記ユーザが行ったときに、前記接触行動によって前記ユーザの手が接触する接触部材と、前記接触部材に備えられ、前記接触行動における前記ユーザの手の接触状態に関する接触データを検出する接触データ検出手段と、前記接触データに基づいて、前記接触行動に含まれる複数の行動要素に対応する特徴量として、複数の特徴パターンを抽出する特徴パターン抽出手段と、前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行うパターン解析手段と、を備えている。   The emotion analysis device of the present invention is a contact member that a user contacts with a hand, and when the user performs a contact behavior that reflects the user's emotion, the contact that the user's hand contacts with the contact behavior A contact data detection means for detecting contact data relating to a contact state of the user's hand in the contact behavior, and a plurality of behavior elements included in the contact behavior based on the contact data A pattern that estimates the user's emotion from the plurality of feature patterns based on the relationship between the feature pattern and the user's emotion, as a feature quantity corresponding to Pattern analysis means for performing analysis.

これにより、接触部材に対するユーザの手の接触行動からユーザの手の接触データを検出し、その接触データから複数の特徴パターンを抽出して、その複数の特徴パターンからユーザの感情を推定する。ユーザの持つ様々な感情は、ユーザの接触行動に現れる。例えば、ユーザが苛立っている場合、ユーザは接触部材を「たたく」などの接触行動を行う。このようなユーザの感情を反映する様々な接触行動(たたく、なでる、にぎる等)に基づいて、ユーザの様々な感情(喜、怒、哀、楽など)を推定することができる。   Thereby, the user's hand contact data is detected from the contact action of the user's hand against the contact member, a plurality of feature patterns are extracted from the contact data, and the user's emotion is estimated from the plurality of feature patterns. Various emotions of the user appear in the user's contact behavior. For example, when the user is frustrated, the user performs a contact action such as “tapping” the contact member. Based on various contact actions (striking, stroking, squeezing, etc.) reflecting such user's emotions, it is possible to estimate various user emotions (eg, joy, anger, sorrow, comfort).

また、本発明の感情分析デバイスでは、前記接触部材は、前記ユーザが手を接触させる立体的な形状の接触部を有してもよい。   In the emotion analysis device of the present invention, the contact member may include a three-dimensional contact portion that allows the user to touch the hand.

接触部材が立体的な形状の接触部を備えていると、ユーザが手を接触させる部分が立体的な形状であるため、ユーザに操作をしているという感覚を与えるのを抑えることができる。ユーザの感情を反映する接触行動は、ユーザが無意識に行うものが多い。したがって、ユーザは立体的な形状の接触部に対して自然な感覚で接触行動を行うことができる。この立体的な形状には、例えば、球面形状、楕円球面形状、卵形状、立方体形状、直方体形状、円筒形状、角筒形状などが含まれる。   When the contact member includes a three-dimensional contact portion, the portion with which the user touches the hand has a three-dimensional shape, so that the user can be prevented from feeling that the user is operating. Many contact actions that reflect the user's emotions are unconsciously performed by the user. Therefore, the user can perform a contact action with a natural sense with respect to the three-dimensionally shaped contact portion. This three-dimensional shape includes, for example, a spherical shape, an elliptical spherical shape, an egg shape, a cubic shape, a rectangular parallelepiped shape, a cylindrical shape, a rectangular tube shape, and the like.

また、本発明の感情分析デバイスでは、前記立体的な形状の接触部は、前記ユーザが手を接触させる球面状の接触球面部であってもよい。   In the emotion analysis device of the present invention, the three-dimensional contact portion may be a spherical contact spherical portion on which the user touches a hand.

上記の接触部として球面状の接触球面部を用いると、ユーザが手を接触させる部分が球面状であるため、ユーザに操作をしているという感覚を与えるのを抑えることができる。ユーザの感情を反映する接触行動は、ユーザが無意識に行うものが多い。したがって、ユーザは球面状の接触球面部に対して自然な感覚で接触行動を行うことができる。   When a spherical contact spherical surface portion is used as the contact portion described above, since the portion with which the user contacts the hand is spherical, it is possible to suppress giving a sense that the user is operating. Many contact actions that reflect the user's emotions are unconsciously performed by the user. Therefore, the user can perform a contact action with a natural feeling on the spherical contact spherical surface portion.

また、本発明の感情分析デバイスでは、前記ユーザの接触行動は、前記ユーザが手のひらまたは指を前記接触部材に接触させる行動であり、前記パターン解析手段は、前記ユーザの手のひらまたは指による接触行動から抽出された前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行ってもよい。   In the emotion analysis device of the present invention, the user's contact behavior is behavior in which the user makes a palm or a finger contact the contact member, and the pattern analysis means is based on the user's palm or finger contact behavior. Pattern analysis for estimating the user's emotion from the extracted feature patterns may be performed.

ユーザの感情を反映する接触行動は、ユーザが手のひらまたは指を使って無意識に行うものが多い。したがって、ユーザが手のひらまたは指を用いて接触部材に対して自然な感覚で行った接触行動に基づいて、そのユーザの感情を分析することができる。   Many contact actions that reflect the user's emotions are unconsciously performed by the user using palms or fingers. Therefore, the emotion of the user can be analyzed based on the contact behavior that the user performed with a natural sense on the contact member using the palm or finger.

また、本発明の感情分析デバイスでは、前記ユーザの接触行動には、前記接触球面部をなでる、たたく、にぎる、かく、なぐる、つつく、はじく、前記接触球面部上でリズムを刻む、のうちの少なくとも一つが含まれ、前記パターン解析手段は、前記ユーザの複数の接触行動の各々から抽出された前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行ってもよい。   Further, in the emotion analysis device of the present invention, the contact behavior of the user may be a stroke of the contact spherical surface portion, stroking, squeezing, thus, rolling, pecking, repelling, or engraving a rhythm on the contact spherical surface portion. At least one may be included, and the pattern analysis means may perform a pattern analysis for estimating the user's emotion from the plurality of feature patterns extracted from each of the plurality of contact actions of the user.

これにより、「なでる」「たたく」「にぎる」「かく」「リズムを刻む」「なぐる」「強くたたく」「つつく」「はじく」などのユーザの様々な接触行動から、様々な特徴パターンの抽出が可能となり、ユーザの様々な感情(喜、怒、哀、楽など)を推定することができる。   This makes it possible to extract various feature patterns from various user contact actions such as “stroking”, “tapping”, “squeezing”, “slicing”, “slicing rhythm”, “striking”, “strapping strongly”, “pecking”, “flicking”, etc. It becomes possible, and various emotions (joy, anger, sorrow, comfort, etc.) of the user can be estimated.

また、本発明の感情分析デバイスは、前記パターン解析手段によって推定された前記ユーザの感情に応じたフィードバック反応シグナルとして、光または振動の少なくとも一つを含むフィードバック反応シグナルを前記ユーザに対して出力するフィードバック手段を備えてもよい。   The emotion analysis device of the present invention outputs a feedback reaction signal including at least one of light or vibration to the user as a feedback reaction signal according to the user's emotion estimated by the pattern analysis means. Feedback means may be provided.

これにより、ユーザが接触部材に手を接触させると、ユーザの感情に応じたフィードバック反応シグナルがユーザに返される。このフィードバック反応シグナルによって、ユーザが再度接触部材に手を接触させるように、ユーザの興味を引くことができる。   Thereby, when the user brings his / her hand into contact with the contact member, a feedback reaction signal corresponding to the user's emotion is returned to the user. The feedback reaction signal can attract the user's interest so that the user again touches the contact member.

また、本発明の感情分析デバイスは、前記接触部材に前記ユーザが手を接触させていないときに、前記ユーザの接触行動を誘発するための接触誘発シグナルとして、光または振動の少なくとも一つを含む接触誘発シグナルを前記ユーザに対して出力する接触誘発手段を備えてもよい。   In addition, the emotion analysis device of the present invention includes at least one of light or vibration as a contact inducing signal for inducing a contact action of the user when the user does not touch the contact member with a hand. You may provide the contact induction means which outputs a contact induction signal with respect to the said user.

これにより、ユーザが接触部材に手を接触させていないと、接触誘発シグナルがユーザに発せられる。この接触誘発シグナルによって、ユーザが接触部材に手を接触させるように、ユーザの注意を喚起することができる。   Thereby, when the user does not touch the contact member with his / her hand, a contact inducing signal is issued to the user. With this contact inducing signal, the user can be alerted so that the user touches the contact member with his / her hand.

また、本発明の感情分析デバイスは、前記接触行動についての前記ユーザごとの個人的な特性を学習し、前記ユーザの特徴パターンと前記ユーザの感情との関係性を更新する学習更新手段を備え、前記パターン解析手段は、更新された前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行ってもよい。   In addition, the emotion analysis device of the present invention comprises learning update means for learning the personal characteristics of each user about the contact behavior and updating the relationship between the user's feature pattern and the user's emotion, The pattern analysis means may perform pattern analysis for estimating the user's emotion from the plurality of feature patterns based on the relationship between the updated feature pattern and the user's emotion.

例えば、同じ「たたく」という接触行動であっても、ユーザが異なると抽出される特徴パターンが異なる。このような場合に、接触行動についてユーザごとの個人的な特性を学習し、ユーザの特徴パターンとユーザの感情との関係性を更新することにより、特徴パターンと感情との関係性を各ユーザに適合させることができる。   For example, even if the contact action is the same “tap”, the extracted feature pattern is different for different users. In such a case, by learning the personal characteristics of each user regarding the contact behavior and updating the relationship between the user's feature pattern and the user's emotion, the relationship between the feature pattern and the emotion is given to each user. Can be adapted.

また、本発明の感情分析デバイスは、複数の入力ノードの値の組み合わせから所定の出力ノードの値を算出するネットワークモデルであって、前記入力ノードとして前記特徴パターンが用いられ、前記出力ノードとして前記ユーザの感情が用いられるネットワークモデルを記憶するネットワークモデル記憶手段を備え、前記パターン解析手段は、前記ネットワークモデルを使用して、前記複数の特徴パターンから前記ユーザの感情を推定してもよい。   The emotion analysis device of the present invention is a network model for calculating a value of a predetermined output node from a combination of values of a plurality of input nodes, wherein the feature pattern is used as the input node, and the output node A network model storage unit that stores a network model in which a user's emotion is used may be provided, and the pattern analysis unit may estimate the user's emotion from the plurality of feature patterns using the network model.

これにより、特徴パターン抽出手段によって抽出された複数の特徴パターンを入力とし、ユーザの感情を推定するパターン解析を行う。パターン解析の方法としては、複数の入力ノードの値の組み合わせから所定の出力ノードの値を算出するネットワークモデルが用いられる。このように、ネットワークモデルを用いて、複数の特徴パターンからユーザの感情を精度良く推定することができる。このネットワークモデルとしては、例えば、ニューラルネットワークやベイジアンネットワークなどが使用される。   Thereby, a plurality of feature patterns extracted by the feature pattern extraction means are input, and pattern analysis for estimating the user's emotion is performed. As a pattern analysis method, a network model that calculates a value of a predetermined output node from a combination of values of a plurality of input nodes is used. Thus, the user's emotion can be accurately estimated from a plurality of feature patterns using the network model. As this network model, for example, a neural network or a Bayesian network is used.

本発明の感情分析方法は、ユーザが手を接触させる接触部材に対して前記ユーザの感情を反映する接触行動を行ったときに、前記接触行動における前記ユーザの手の接触状態に関する接触データを検出し、前記接触データに基づいて、前記接触行動に含まれる複数の行動要素に対応する特徴量として、複数の特徴パターンを抽出し、前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行う。   The emotion analysis method of the present invention detects contact data relating to a contact state of the user's hand in the contact behavior when the user performs a contact behavior that reflects the user's emotion on a contact member with which the user contacts the hand. Then, based on the contact data, a plurality of feature patterns are extracted as feature amounts corresponding to a plurality of behavior elements included in the contact behavior, and based on the relationship between the feature pattern and the user's emotion, Pattern analysis for estimating the user's emotion from the plurality of feature patterns is performed.

この方法によっても、ユーザの感情を反映する様々な接触行動(たたく、なでる、にぎる等)に基づいて、ユーザの様々な感情(喜、怒、哀、楽など)を推定することができる。   Also by this method, various emotions (joy, anger, sorrow, comfort, etc.) of the user can be estimated based on various contact behaviors (striking, stroking, pinching, etc.) reflecting the emotions of the user.

本発明の感情分析プログラムは、ユーザが手を接触させる接触部材に対して前記ユーザの感情を反映する接触行動を行ったときに、前記接触行動における前記ユーザの手の接触状態に関する接触データに基づいて、コンピュータに、前記接触データから、前記接触行動に含まれる複数の行動要素に対応する特徴量として、複数の特徴パターンを抽出する処理と、前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行う処理と、を実行させる。   The emotion analysis program of the present invention is based on contact data relating to a contact state of the user's hand in the contact behavior when the user performs a contact behavior that reflects the user's emotion on a contact member that makes the hand contact. Then, in the computer, a process for extracting a plurality of feature patterns as feature amounts corresponding to a plurality of behavior elements included in the contact behavior from the contact data, and a relationship between the feature patterns and the emotion of the user. And a process of performing pattern analysis for estimating the user's emotion from the plurality of feature patterns.

このプログラムによっても、ユーザの感情を反映する様々な接触行動(たたく、なでる、にぎる等)に基づいて、ユーザの様々な感情(喜、怒、哀、楽など)を推定することができる。なお、このプログラムは、コンピュータに、パターン解析に用いられるネットワークモデルを学習によって更新し、ネットワークモデルをユーザに適合させる処理を実行させてもよい。   Also according to this program, various emotions (joy, anger, sorrow, comfort, etc.) of the user can be estimated based on various contact behaviors (striking, stroking, sipping, etc.) reflecting the emotions of the user. This program may cause a computer to update a network model used for pattern analysis by learning and execute processing for adapting the network model to the user.

本発明によれば、ユーザの感情を反映する様々な接触行動に基づいて、ユーザの様々な感情を推定することができる。   According to the present invention, various emotions of a user can be estimated based on various contact actions that reflect the emotions of the user.

以下、本発明の実施の形態の感情分析デバイスについて、図面を用いて説明する。本実施の形態では、車両用のナビゲーション装置等とともに用いられる感情分析デバイスの場合を例示する。この感情分析デバイスは、ナビゲーション装置からユーザ(ドライバや同乗者)へ各種の情報(経路案内や音楽など)が提供されたときのユーザの感情を分析してナビゲーション装置へ伝達する機能を有している。この機能は、感情分析デバイスのメモリやHDDに格納されているプログラムによって実現される。   Hereinafter, an emotion analysis device according to an embodiment of the present invention will be described with reference to the drawings. In this embodiment, a case of an emotion analysis device used together with a vehicle navigation device or the like is illustrated. This emotion analysis device has a function of analyzing a user's emotion when various information (route guidance, music, etc.) is provided from the navigation device to the user (driver or passenger) and transmitting it to the navigation device. Yes. This function is realized by a program stored in the memory or HDD of the emotion analysis device.

本発明の実施の形態の感情分析デバイスの構成を図1〜図3を用いて説明する。図1は、感情分析デバイスの全体的な構成を示すブロック図である。図2は、感情分析デバイスの筐体部の構成を示す説明図である。図3は、感情分析デバイスの設置例を示す図である。   The configuration of the emotion analysis device according to the embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing the overall configuration of the emotion analysis device. FIG. 2 is an explanatory diagram showing the configuration of the casing of the emotion analysis device. FIG. 3 is a diagram illustrating an installation example of an emotion analysis device.

図1に示すように、感情分析デバイス1は、筐体部2とソフトウェア部3を備えている。感情分析デバイス1の筐体部2は、ユーザが手を接触させる接触部材4を備えており、接触部材4には、画像センサ5と圧力センサ6と光源7と振動モータ8が設けられている(図2参照)。   As shown in FIG. 1, the emotion analysis device 1 includes a housing unit 2 and a software unit 3. The housing part 2 of the emotion analysis device 1 includes a contact member 4 that allows a user to touch the hand. The contact member 4 is provided with an image sensor 5, a pressure sensor 6, a light source 7, and a vibration motor 8. (See FIG. 2).

接触部材4は、ユーザの感情を反映する接触行動(後述する)をユーザが行ったときに、接触行動によってユーザの手が接触するものである。図2に示すように、接触部材4は、略半球状の接触球面部9を有しており、接触部材4の大きさは、ユーザ(例えば成人男性または成人女性)が手のひらで握ることができる程度の大きさに設定されている。   When the user performs a contact action (described later) that reflects the user's emotion, the contact member 4 comes into contact with the user's hand by the contact action. As shown in FIG. 2, the contact member 4 has a substantially hemispherical contact spherical surface portion 9, and the size of the contact member 4 can be grasped by a user (for example, an adult man or an adult woman) with the palm of the hand. It is set to a size of about.

接触部材4の下側の略中央には、CCDカメラなどで構成された画像センサ5が配置されている。接触部材4は透明または半透明であり、画像センサ5は、接触行動中のユーザの手の影を撮影し、接触行動におけるユーザの手の接触状態を示す画像データを得ることができる。また、接触部材4の下側には、感圧導電性ゴムなどで構成された圧力センサ6が配置されており、接触行動中に接触部材4に加えられた圧力を測定し、接触行動におけるユーザの手の接触状態を示す圧力データを得ることができる。ここでは、画像データと圧力データが、本発明の接触データに相当する。また、画像センサ5と圧力センサ6が、本発明の接触データ検出手段に相当する。   An image sensor 5 composed of a CCD camera or the like is disposed at the approximate center below the contact member 4. The contact member 4 is transparent or translucent, and the image sensor 5 can capture the image of the contact state of the user's hand in the contact behavior by photographing the shadow of the user's hand during the contact behavior. In addition, a pressure sensor 6 made of pressure-sensitive conductive rubber or the like is disposed below the contact member 4, and the pressure applied to the contact member 4 during the contact action is measured, so that the user in the contact action Pressure data indicating the contact state of the hand can be obtained. Here, the image data and the pressure data correspond to the contact data of the present invention. Further, the image sensor 5 and the pressure sensor 6 correspond to contact data detection means of the present invention.

接触部材4の下側には、様々な輝度や色彩の光を発する光源7が設けられている。この光源7は、後述するようにユーザの感情の分析結果に応じた色彩や輝度やリズムで発光するように制御されている。また、この光源7は、ユーザが接触部材4に手を接触させていないときにはユーザの接触行動を誘発するような色彩や輝度やリズムで発光するように制御されている。この光源7は、本発明のフィードバック手段に相当するとともに、接触誘発手段にも相当するといえる。   A light source 7 that emits light of various luminances and colors is provided below the contact member 4. As will be described later, the light source 7 is controlled to emit light with a color, brightness, or rhythm corresponding to the analysis result of the user's emotion. The light source 7 is controlled to emit light with a color, brightness, or rhythm that induces the user's contact behavior when the user does not touch the contact member 4. This light source 7 corresponds to the feedback means of the present invention and also corresponds to the contact inducing means.

接触部材4には、様々な強さやリズムで接触部材4を振動させる振動モータ8が設けられている。この振動モータ8は、後述するようにユーザの感情の分析結果に応じた強さやリズムで接触部材4を振動させるように制御されている。また、この振動モータ8は、ユーザが接触部材4に手を接触させていないときにはユーザの接触行動を誘発するような強さやリズムで接触部材4を振動させるように制御されている。この振動モータ8は、本発明のフィードバック手段に相当するとともに、接触誘発手段にも相当するといえる。   The contact member 4 is provided with a vibration motor 8 that vibrates the contact member 4 with various strengths and rhythms. As will be described later, the vibration motor 8 is controlled to vibrate the contact member 4 with strength and rhythm according to the analysis result of the user's emotion. Further, the vibration motor 8 is controlled to vibrate the contact member 4 with such strength and rhythm that induces the user's contact behavior when the user does not touch the contact member 4 with his / her hand. The vibration motor 8 corresponds to the feedback means of the present invention and also corresponds to the contact inducing means.

図1に示すように、感情分析デバイス1のソフトウェア部3は、CPUやマイコン等で構成されており、特徴パターン抽出部10とパターン解析部11と光源制御部12と振動制御部13を備えている。また、ソフトウェア部3は、メモリやHDD等で構成されたネットワークモデル記憶部14と、CPUやマイコン等で構成された学習更新部15を備えている。   As shown in FIG. 1, the software unit 3 of the emotion analysis device 1 includes a CPU, a microcomputer, and the like, and includes a feature pattern extraction unit 10, a pattern analysis unit 11, a light source control unit 12, and a vibration control unit 13. Yes. The software unit 3 includes a network model storage unit 14 configured with a memory, an HDD, and the like, and a learning update unit 15 configured with a CPU, a microcomputer, and the like.

特徴パターン抽出部10は、画像センサ5の画像データと圧力センサ6の圧力データに基づいて、ユーザの接触行動に含まれる様々な行動要素に対応する特徴量として、様々な特徴パターン(後述する)を抽出する。この特徴パターン抽出部10は、本発明の特徴パターン抽出手段に相当する。   Based on the image data of the image sensor 5 and the pressure data of the pressure sensor 6, the feature pattern extraction unit 10 uses various feature patterns (described later) as feature amounts corresponding to various behavior elements included in the user's contact behavior. To extract. The feature pattern extraction unit 10 corresponds to feature pattern extraction means of the present invention.

パターン解析部11は、特徴パターンとユーザの感情の関係性を表すニューラルネットワーク(後述する)を用いて、複数の特徴パターンからユーザの感情を推定するパターン解析を行う。このニューラルネットワークは、複数の入力ノード(特徴パターン)の値の組み合わせから出力ノード(ユーザの感情)の値を算出するネットワークモデルであり、ネットワークモデル記憶部14に記憶されている。ここでは、パターン解析部11が、本発明のパターン解析手段に相当し、ネットワークモデル記憶部14が、本発明のネットワークモデル記憶手段に相当する。   The pattern analysis unit 11 performs pattern analysis for estimating a user's emotion from a plurality of feature patterns using a neural network (described later) representing the relationship between the feature pattern and the user's emotion. This neural network is a network model that calculates the value of an output node (user emotion) from a combination of values of a plurality of input nodes (feature patterns), and is stored in the network model storage unit 14. Here, the pattern analysis unit 11 corresponds to the pattern analysis unit of the present invention, and the network model storage unit 14 corresponds to the network model storage unit of the present invention.

光源制御部12は、パターン解析部11で推定されたユーザの感情に応じた色彩や輝度やリズムで発光するように光源7を制御する。また、光源制御部12は、ユーザが接触部材4に手を接触させていないときに、ユーザの接触行動を誘発するような色彩や輝度やリズムで発光するように光源7を制御する。   The light source control unit 12 controls the light source 7 so as to emit light with a color, brightness, or rhythm corresponding to the user's emotion estimated by the pattern analysis unit 11. Further, the light source control unit 12 controls the light source 7 to emit light with a color, brightness, or rhythm that induces the user's contact behavior when the user does not touch the contact member 4.

振動制御部13は、パターン解析部11で推定されたユーザの感情に応じた強さやリズムで接触部材4を振動させるように振動モータ8を制御する。また、振動制御部13は、ユーザが接触部材4に手を接触させていないときに、ユーザの接触行動を誘発するような強さやリズムで接触部材4を振動させるように振動モータ8を制御する。   The vibration control unit 13 controls the vibration motor 8 so as to vibrate the contact member 4 with the strength and rhythm according to the user's emotion estimated by the pattern analysis unit 11. Further, the vibration control unit 13 controls the vibration motor 8 so as to vibrate the contact member 4 with such strength and rhythm that induces the user's contact behavior when the user does not touch the contact member 4 with his / her hand. .

学習更新部15は、接触行動についてのユーザごとの個人的な特性を学習し、ネットワークモデル記憶部14に格納されたネットワークモデルを更新する。つまり、この学習更新部15は、ネットワークモデルをユーザごとに適合するように更新する処理を行うものであるともいえる。この学習更新部15が、本発明の学習更新手段に相当する。   The learning update unit 15 learns personal characteristics for each user regarding the contact behavior, and updates the network model stored in the network model storage unit 14. That is, it can be said that the learning update unit 15 performs a process of updating the network model so as to be adapted for each user. The learning update unit 15 corresponds to a learning update unit of the present invention.

例えば、同じ「たたく」という接触行動であっても、ユーザが異なると抽出される特徴パターンは異なるため、ユーザによっては「強くたたく」と誤認識されることがありえる。そのような場合、光源7および振動モータ8によって認識結果をユーザにフィードバックし、ユーザに認識された結果を知らせ、認識結果が正しかったかどうかをユーザに問い合わせる。例えば、ユーザが光源7および振動モータ8によるフィードバックを得た後に、所定の時間内に再度接触行動を試みた場合、一つ以上前の接触行動は誤認識であったものとしてみなす。これにより、一つ以上前の接触行動が正しく認識されるようにネットワークモデルを更新し、ネットワークモデルがユーザにより適合するように学習させる。   For example, even if the contact action is the same “tap”, the extracted feature pattern is different if the user is different, so that it may be erroneously recognized as “striking” depending on the user. In such a case, the recognition result is fed back to the user by the light source 7 and the vibration motor 8, the user is notified of the recognized result, and the user is inquired whether the recognition result is correct. For example, when the user tries the contact action again within a predetermined time after obtaining feedback from the light source 7 and the vibration motor 8, one or more previous contact actions are regarded as erroneous recognition. Accordingly, the network model is updated so that one or more previous contact actions are correctly recognized, and learning is performed so that the network model is more suitable for the user.

以上のように構成された感情分析デバイス1は、車内において、ユーザ(ドライバや同乗車)が接触部材4に手を接触させやすい位置に設けられている。例えば、感情分析デバイス1は、図3に示すように、運転席と助手席の間のセンターコンソールの近傍に設けられている。   The emotion analysis device 1 configured as described above is provided at a position where the user (driver or passenger) can easily touch the contact member 4 with a hand in the vehicle. For example, the emotion analysis device 1 is provided in the vicinity of the center console between the driver seat and the passenger seat, as shown in FIG.

(ユーザの接触行動)
図4(a)〜(h)は、ユーザの接触行動の例を示す説明図である。また、図5は、ユーザの接触行動とユーザの感情の相関関係を示す説明図である。図4(a)は、「にぎる」というユーザの接触行動の一例を示す図であり、この図では、ユーザが手で接触部材4の表面を強く握る様子が示されている。この「にぎる」という接触行動は、例えばユーザが喜んだときや怒ったときに無意識に行う行動である。したがって、「にぎる」という接触行動は、「喜」または「怒」というユーザの感情を反映しているともいえる(図5参照)。
(User contact behavior)
4A to 4H are explanatory diagrams illustrating examples of the user's contact behavior. FIG. 5 is an explanatory diagram showing the correlation between the user's contact behavior and the user's emotion. FIG. 4A is a diagram illustrating an example of the user's contact action “Nigiri”. In this figure, the user strongly grips the surface of the contact member 4 with his / her hand. This contact action “nigiri” is an action that is performed unconsciously when the user is happy or angry, for example. Therefore, it can be said that the contact action “Nigiri” reflects the user's emotion of “joy” or “anger” (see FIG. 5).

図4(b)は、「なでる」というユーザの接触行動の一例を示す図であり、この図では、ユーザが手のひらで接触部材4の表面を軽く撫でる様子が示されている。また、図4(c)は、「激しくなでる」というユーザの接触行動の一例を示す図であり、この例では、ユーザが手のひらで接触部材4の表面を強く撫でている。この「なでる」または「激しくなでる」という接触行動は、例えばユーザが喜んだときや哀しいときや楽しいときに無意識に行う行動である。したがって、「なでる」または「激しくなでる」という接触行動は、「喜」または「哀」または「楽」というユーザの感情を反映しているともいえる(図5参照)。   FIG. 4B is a diagram showing an example of the user's contact action of “stroking”. In this figure, the user gently strokes the surface of the contact member 4 with the palm of the hand. FIG. 4C is a diagram showing an example of the user's contact action of “stroking vigorously”. In this example, the user is stroking the surface of the contact member 4 with his palm. This contact action of “stroking” or “stroking intensely” is, for example, an action that is performed unconsciously when the user is happy, sad, or happy. Therefore, it can be said that the contact behavior of “stroking” or “stroking strenuously” reflects the user's emotion of “joy”, “sorrow”, or “easy” (see FIG. 5).

図4(d)は、「なぐる」というユーザの接触行動の一例を示す図であり、この図では、ユーザが拳で接触部材4の表面を強く殴る様子が示されている。この「なぐる」という接触行動は、例えばユーザが怒ったときに無意識に行う行動である。したがって、「なぐる」という接触行動は、「怒」というユーザの感情を反映しているともいえる(図5参照)。   FIG. 4D is a diagram showing an example of the user's contact behavior “naguru”. In this figure, a state in which the user strongly hits the surface of the contact member 4 with a fist is shown. This contact action of “naguru” is an action performed unconsciously when the user gets angry, for example. Therefore, it can be said that the contact behavior of “naguru” reflects the user's emotion of “anger” (see FIG. 5).

図4(e)は、「つつく」というユーザの接触行動の一例を示す図であり、この図では、ユーザが指先で接触部材4の表面を軽く突く様子が示されている。この「つつく」という接触行動は、例えばユーザが哀しいときに無意識に行う行動である。したがって、「つつく」という接触行動は、「哀」というユーザの感情を反映しているともいえる(図5参照)。   FIG. 4E is a diagram illustrating an example of the user's contact action “peck”. In this figure, the user gently taps the surface of the contact member 4 with the fingertip. This contact action “peck” is an action that is performed unconsciously when the user is sad, for example. Therefore, it can be said that the contact action “peck” reflects the user's emotion “sorrow” (see FIG. 5).

図4(f)は、「はじく」というユーザの接触行動の一例を示す図であり、この図では、ユーザが指先で接触部材4の表面を軽く弾く様子が示されている。この「はじく」という接触行動は、例えばユーザが哀しいときに無意識に行う行動である。したがって、「はじく」という接触行動は、「哀」というユーザの感情を反映しているともいえる。   FIG. 4F is a diagram illustrating an example of the user's contact action of “repelling”. FIG. 4F shows a state in which the user gently flicks the surface of the contact member 4 with the fingertip. This contact action “flick” is an action that is performed unconsciously when the user is sad, for example. Therefore, it can be said that the contact action “flick” reflects the user's feeling “sorrow”.

図4(g)は、「かく」というユーザの接触行動の一例を示す図であり、この図では、ユーザが指先で接触部材4の表面にハートマークを描く様子が示されている。ハートマークを「かく」という接触行動は、例えばユーザが喜んでいるときや楽しいときに行う行動である。したがって、ハートマークを「かく」という接触行動は、「喜」や「楽」というユーザの感情を反映しているともいえる。その一方、例えばバツ印(×印)を「かく」という接触行動は、例えばユーザが怒っているときや哀しいときに行う行動である。したがって、バツ印(×印)を「かく」という接触行動は、「怒」や「哀」というユーザの感情を反映しているともいえる。   FIG. 4G is a diagram showing an example of the user's contact action “Kaku”. In this figure, the user draws a heart mark on the surface of the contact member 4 with the fingertip. The contact action of “scratching” the heart mark is, for example, an action performed when the user is happy or happy. Therefore, it can be said that the contact action of “Kaku” with the heart symbol reflects the user's feeling of “joy” or “easy”. On the other hand, for example, the contact action of “scratching” the cross mark (× mark) is an action performed when the user is angry or sad, for example. Therefore, it can be said that the contact action of “scratching” the cross mark (× mark) reflects the user's feelings of “anger” and “sorrow”.

図4(h)は、「リズムをきざむ」というユーザの接触行動の一例を示す図であり、この図では、ユーザが指で接触部材4の表面でリズムを刻む様子が示されている。この「リズムをきざむ」という接触行動は、例えばユーザが喜んだときや楽しいときに無意識に行う行動である。したがって、「リズムをきざむ」という接触行動は、「喜」や「楽」というユーザの感情を反映しているともいえる(図5参照)。   FIG. 4H is a diagram illustrating an example of the user's contact action of “getting the rhythm”. In this figure, the user shows the rhythm on the surface of the contact member 4 with the finger. This contact action of “kick the rhythm” is an action that is performed unconsciously when the user is happy or happy, for example. Therefore, it can be said that the contact action of “kick the rhythm” reflects the user's feeling of “joy” or “easy” (see FIG. 5).

図4(i)は、「たたく」というユーザの接触行動の一例を示す図であり、この図では、ユーザが手のひらで接触部材4の表面を軽くたたく様子が示されている。この「たたく」という接触行動は、例えばユーザが喜んでいるときや怒っているときに無意識に行う行動である。したがって、「たたく」という接触行動は、「喜」や「怒」というユーザの感情を反映しているともいえる(図5参照)。   FIG. 4 (i) is a diagram showing an example of the user's contact action of “tapping”. In this figure, the user taps the surface of the contact member 4 with the palm of the hand. This contact action of “tapping” is an action performed unconsciously when the user is happy or angry, for example. Therefore, it can be said that the contact action of “tapping” reflects the user's feelings of “joy” and “anger” (see FIG. 5).

図4(j)は、「強くたたく」というユーザの接触行動の一例を示す図であり、この図では、ユーザが手のひらで接触部材4の表面を強くたたく様子が示されている。この「強くたたく」という接触行動は、例えばユーザが怒っているときに無意識に行う行動である。したがって、「強くたたく」という接触行動は、「怒」というユーザの感情を反映しているともいえる(図5参照)。   FIG. 4 (j) is a diagram showing an example of the user's contact action of “striking strongly”. In this figure, a state in which the user strikes the surface of the contact member 4 with the palm of the hand is shown. This contact action of “slamming” is an action that is performed unconsciously when the user is angry, for example. Therefore, it can be said that the contact action of “slamming” reflects the user's feeling of “anger” (see FIG. 5).

以上のような様々な接触行動をユーザが行うと、その接触行動におけるユーザの手の接触状態を示す画像データが画像センサ5によって得られるとともに、その接触行動におけるユーザの手の接触状態を示す圧力データが圧力センサ6によって得られる。   When the user performs various contact actions as described above, image data indicating the contact state of the user's hand in the contact action is obtained by the image sensor 5, and the pressure indicating the contact state of the user's hand in the contact action Data is obtained by the pressure sensor 6.

図6(a)〜(d)は、様々な接触行動を行ったときの画像データの例を示す説明図である。例えば、ユーザ(左座席の同乗者)が右手で「にぎる」という接触行動を行ったときには、図6(a)に示すような画像データが得られる。また、ユーザ(右座席のドライバ)が左手で「にぎる」という接触行動を行ったときには、図6(b)に示すような画像データが得られる。なお、この場合、画像データを解析処理することにより、接触行動を行ったユーザがドライバであるのか同乗者であるのか判別することが可能である。   6A to 6D are explanatory diagrams illustrating examples of image data when various contact actions are performed. For example, when the user (passenger in the left seat) performs the contact action of “squeezing” with the right hand, image data as shown in FIG. 6A is obtained. Further, when the user (the driver in the right seat) performs the contact action of “squeezing” with the left hand, image data as shown in FIG. 6B is obtained. In this case, by analyzing the image data, it is possible to determine whether the user who performed the contact behavior is a driver or a passenger.

また、例えば、ユーザが左手で「リズムをきざむ」という接触行動を行ったときには、図6(c)に示すような画像データが得られる。なお、この場合、所定のリズム間隔で圧力値が変化する圧力データが得られる。また、ユーザが左手で「つつく」という接触行動を行ったときには、図6(d)に示すような画像データが得られる。なお、この場合、定期的な時間間隔で圧力値が変化する圧力データが得られる。   Also, for example, when the user performs a contact action of “kick the rhythm” with the left hand, image data as shown in FIG. 6C is obtained. In this case, pressure data whose pressure value changes at a predetermined rhythm interval is obtained. Further, when the user performs a contact action of “pecking” with the left hand, image data as shown in FIG. 6D is obtained. In this case, pressure data in which the pressure value changes at regular time intervals is obtained.

(特徴パターン)
以上のような様々な接触データ(画像データや圧力データ)から様々な特徴パターンが抽出される。例えば、接触行動の画像データから、指先の各々の位置(xy座標)に対応する特徴量として「指先位置」という特徴パターンが抽出される。また、接触行動の画像データから、手のひら全体の動きに対応する特徴量として「動きベクトル(x方向、y方向)」という特徴パターンや「動きベクトルの時間変化の周期/振幅」という特徴パターンが抽出される。
(Feature pattern)
Various feature patterns are extracted from various contact data (image data and pressure data) as described above. For example, a feature pattern “fingertip position” is extracted from the image data of the contact behavior as a feature amount corresponding to each position (xy coordinate) of the fingertip. In addition, a feature pattern called “motion vector (x direction, y direction)” and a feature pattern called “time change period / amplitude of motion vector” are extracted as feature quantities corresponding to the movement of the entire palm from the image data of the contact action. Is done.

また、接触行動の画像データから、接触部分の形状に対応する特徴量として様々な「形状特徴量」が抽出される。この「形状特徴量」には、例えば、接触部分の形状を示す低次元の特徴量である「モーメント特徴量」や、接触部分の輪郭の長さを示す「周囲長」、接触部分の面積を示す「面積」が含まれる。また、接触行動の画像データからは、接触部材4に接触している指先の数に対応する特徴量として「接触している部位の数」という特徴パターンが抽出される。   In addition, various “shape feature amounts” are extracted from the contact action image data as feature amounts corresponding to the shape of the contact portion. The “shape feature amount” includes, for example, “moment feature amount” which is a low-dimensional feature amount indicating the shape of the contact portion, “perimeter length” indicating the contour length of the contact portion, and the area of the contact portion. The “area” shown is included. Further, from the image data of the contact behavior, a feature pattern “number of parts in contact” is extracted as a feature amount corresponding to the number of fingertips in contact with the contact member 4.

一方、接触行動の圧力データからは、圧力の大きさを示す「負荷の強さ」という特徴パターンや、圧力のかかっている位置(例えば、接触部材4の前側、後側、右側、左側など)を示す「負荷のかかっている位置」という特徴パターンが抽出される。また、接触行動の圧力データから、一定の時間間隔で定期的に負荷がかかっているときの周期を示す「負荷のかかる周期」という特徴パターンが抽出される。   On the other hand, from the pressure data of the contact behavior, a characteristic pattern of “load intensity” indicating the magnitude of the pressure, and a position where the pressure is applied (for example, the front side, the rear side, the right side, the left side, etc. of the contact member 4). A feature pattern of “loading position” is extracted. In addition, a characteristic pattern called “loading period” indicating a period when a load is periodically applied at regular time intervals is extracted from the pressure data of the contact action.

例えば、ユーザが「なでる」という接触行動を行ったときには、図7(a)に示すような「動きベクトル」の特徴パターンが抽出される。また、ユーザが「激しくなでる」という接触行動を行ったときには、図7(b)に示すような「動きベクトル」の特徴パターンが抽出される。図7(a)および(b)に示すように、「激しくなでる」の動きベクトの周期は、「なでる」の動きベクトルの周期より短く、また、「激しくなでる」の動きベクトルの振幅は、「なでる」の動きベクトルの振幅より大きい。   For example, when the user performs a contact action of “stroking”, a feature pattern of “motion vector” as shown in FIG. 7A is extracted. Further, when the user performs a contact action of “stroking strenuously”, a feature pattern of “motion vector” as shown in FIG. 7B is extracted. As shown in FIGS. 7A and 7B, the period of the motion vector of “Stroke Stroke” is shorter than the period of the motion vector of “Stroke Stroke”, and the amplitude of the motion vector of “Stroke Stroke” is “ It is larger than the amplitude of the motion vector of “stroking”.

(ニューラルネットワーク)
図8は、複数の特徴パターンからユーザの感情を推定するニューラルネットワークを概念的に示した説明図である。ニューラルネットワークは、複数のノードを階層状に組み合わせたネットワークモデルである。ニューラルネットワークでは、数値的な入力を行うことによって、入力層のノード(入力ノード)・中間層のノード(中間ノード)・出力層のノード(出力ノード)でそれぞれ数値計算が行われ、数値的な出力が行われる。
(neural network)
FIG. 8 is an explanatory diagram conceptually showing a neural network that estimates a user's emotion from a plurality of feature patterns. A neural network is a network model in which a plurality of nodes are combined in a hierarchy. In a neural network, numerical calculations are performed at the input layer node (input node), intermediate layer node (intermediate node), and output layer node (output node). Output is done.

図8に示したニューラルネットワークでは、特徴パターンの数値「A」〜「F」が入力ノードの値であり、ユーザの接触行動の数値「a」〜「e」が中間ノードの値であり、ユーザの感情「喜」「怒」「哀」「楽」の数値が出力ノードの値である。なお、図8では、説明の便宜のために、入力ノード(特徴パターン)の数が6つであり、中間ノード(接触行動)の数が5つであり、出力ノード(ユーザの感情)の数が4つである例が図示されているが、各ノードの数はこれに限定されるものではない。   In the neural network shown in FIG. 8, the numerical values “A” to “F” of the feature patterns are the values of the input nodes, and the numerical values “a” to “e” of the user's contact behavior are the values of the intermediate nodes. The values of emotion “joy”, “anger”, “sorrow” and “easy” are the values of the output nodes. In FIG. 8, for convenience of explanation, the number of input nodes (feature patterns) is six, the number of intermediate nodes (contact behavior) is five, and the number of output nodes (user emotions). However, the number of nodes is not limited to this.

本実施の形態の感情分析デバイス1では、接触データ(画像データや圧力データ)から得られるすべての特徴パターンの値が、入力ノードの値として用いられる。例えば、特徴パターンの数値「A」として、「指先位置」の数値(例えば球の中央を原点としたxy座標系におけるx座標、あるいはy座標)が用いられる。また、特徴パターンの数値「B」として、「動きベクトルの長さの変化の周期」の値(例えば1秒)が用いられる。なお、接触データ(画像データや圧力データ)から得られる特徴パターンのうちの一部の特徴パターンの値を、入力ノードの値として用いても良い。   In emotion analysis device 1 of the present embodiment, all feature pattern values obtained from contact data (image data and pressure data) are used as input node values. For example, as the numerical value “A” of the feature pattern, a numerical value of “fingertip position” (for example, the x coordinate or the y coordinate in the xy coordinate system with the center of the sphere as the origin) is used. Also, the value (for example, 1 second) of the “motion vector length change period” is used as the feature pattern value “B”. In addition, you may use the value of the one part feature pattern of the feature patterns obtained from contact data (image data or pressure data) as a value of an input node.

入力層の入力ノードに入力された特徴パターンの値に対して数値計算が行われ、中間ノードの値が決定される。この数値計算により、ユーザの行う様々な接触行動を示す数値が、中間ノードの値に反映される。例えば、接触行動の数値「a」が、「にぎる」を示す数値(例えば「1」)を意味する。また、接触行動の数値「b」が、「なでる」を示す数値(例えば「2」)を意味する。   Numerical calculation is performed on the value of the feature pattern input to the input node of the input layer, and the value of the intermediate node is determined. By this numerical calculation, numerical values indicating various contact actions performed by the user are reflected in the value of the intermediate node. For example, the numerical value “a” of the contact action means a numerical value indicating “nigiri” (for example, “1”). Further, the numerical value “b” of the contact action means a numerical value (for example, “2”) indicating “stroking”.

中間層の中間ノードの値に対して数値計算が行われ、出力ノードの値が決定される。この数値計算により、ユーザの感情を示す数値が、出力ノードの値に反映される。例えば、ユーザが喜んでいる場合、出力ノードの「喜」の数値が「1」に近くなり、出力ノードの「怒」「哀」「楽」の数値が「0」に近くなる。ユーザが怒っている場合、出力ノードの「怒」の数値が「1」に近くなり、出力ノードの「喜」「哀」「楽」の数値が「0」に近くなる。ユーザが哀しんでいる場合、出力ノードの「哀」の数値が「1」に近くなり、出力ノードの「喜」「怒」「楽」の数値が「0」に近くなる。ユーザが楽しんでいる場合、出力ノードの「楽」の数値が「1」に近くなり、出力ノードの「喜」「怒」「哀」の数値が「0」に近くなる。   A numerical calculation is performed on the value of the intermediate node of the intermediate layer, and the value of the output node is determined. By this numerical calculation, a numerical value indicating the user's emotion is reflected in the value of the output node. For example, when the user is pleased, the numerical value of “joy” of the output node is close to “1”, and the numerical values of “anger”, “sorrow”, and “easy” of the output node are close to “0”. When the user is angry, the numerical value of “angry” of the output node is close to “1”, and the numerical values of “joy”, “sorrow”, and “easy” of the output node are close to “0”. When the user is sad, the numerical value of “sorrow” of the output node is close to “1”, and the numerical values of “joy”, “anger”, and “easy” of the output node are close to “0”. When the user is having fun, the numerical value of “Easy” of the output node is close to “1”, and the numerical values of “joy”, “anger”, and “sorrow” are close to “0”.

(フィードバック反応シグナル、接触誘発シグナル)
図9は、フィードバック反応シグナルと接触誘発シグナルの一例を示す説明図である。図9に示すように、ユーザの感情「喜」に対応する光のフィードバック反応シグナルでは、光の色は「オレンジ」であり、光の輝度は「高」であり、発光のリズムは「軽やかに明暗が変化」である。また、ユーザの感情「喜」に対応する振動のフィードバック反応シグナルでは、振動の強さは「強」であり、振動のリズムは「小刻み」である。
(Feedback reaction signal, contact induction signal)
FIG. 9 is an explanatory diagram showing an example of a feedback reaction signal and a contact induction signal. As shown in FIG. 9, in the light feedback reaction signal corresponding to the user's emotion “joy”, the light color is “orange”, the light brightness is “high”, and the light emission rhythm is “lightly”. "Lightness changes." In the vibration feedback response signal corresponding to the user's emotion “joy”, the vibration strength is “strong” and the vibration rhythm is “small”.

また、ユーザの感情「怒」に対応する光のフィードバック反応シグナルでは、光の色は「赤」であり、光の輝度は「高」であり、発光のリズムは「突発的に変化」する。また、ユーザの感情「怒」に対応する振動のフィードバック反応シグナルでは、振動の強さは「強」であり、振動のリズムは「突発的」である。   In the light feedback response signal corresponding to the user's emotion “anger”, the light color is “red”, the light luminance is “high”, and the light emission rhythm changes suddenly. In the vibration feedback response signal corresponding to the user's emotion “anger”, the vibration intensity is “strong” and the vibration rhythm is “suddenly”.

また、ユーザの感情「哀」に対応する光のフィードバック反応シグナルでは、光の色は「赤」であり、光の輝度は「中」であり、発光のリズムは「ゆっくりとした周期で変化」する。なお、ユーザの感情「哀」に対応する振動のフィードバック反応シグナルは、「無」である。   Moreover, in the light feedback response signal corresponding to the user's emotion “sorrow”, the light color is “red”, the light brightness is “medium”, and the light emission rhythm “changes slowly” To do. The vibration feedback response signal corresponding to the user's emotion “sorrow” is “none”.

また、ユーザの感情「楽」に対応する光のフィードバック反応シグナルでは、光の色は「赤・橙・黄」であり、光の輝度は「高」であり、発光のリズムは「軽やかに色と輝度が変化」する。なお、ユーザの感情「楽」に対応する振動のフィードバック反応シグナルは、「無」である。   In the light feedback response signal corresponding to the user's emotion “Easy”, the light color is “Red / Orange / Yellow”, the light brightness is “High”, and the light emission rhythm is “Lightly colored”. And brightness changes. " The vibration feedback response signal corresponding to the user's emotion “Raku” is “None”.

ユーザの接触行動を誘発するときの光の接触誘発シグナルでは、光の色は「緑・青」であり、光の輝度は「高」であり、発光のリズムは「軽やかに色と輝度が変化」する。また、ユーザの接触行動を誘発するときの振動の接触誘発シグナルでは、振動の強さは「中」であり、振動のリズムは「軽やか」である。   In the light contact induction signal when inducing the user's contact behavior, the light color is “green / blue”, the light brightness is “high”, and the light emission rhythm is “lightly changes in color and brightness” " Further, in the vibration contact induction signal for inducing the user's contact behavior, the vibration intensity is “medium” and the vibration rhythm is “light”.

以上のように構成された感情分析デバイス1をナビゲーション装置とともに用いるときの動作を説明する。ここでは、例えば、ナビゲーション装置が自動選曲モードでユーザに音楽を提供したときに、感情分析デバイス1でユーザの感情を分析して、ナビゲーション装置へ伝達するときの動作について説明する。   An operation when the emotion analysis device 1 configured as described above is used together with the navigation apparatus will be described. Here, for example, when the navigation device provides music to the user in the automatic music selection mode, the operation when the emotion analysis device 1 analyzes the user's emotion and transmits it to the navigation device will be described.

図10は、自動選曲モードでユーザに音楽を提供したときの感情分析デバイス1とナビゲーション装置の動作を説明するためのフロー図である。図10に示すように、ナビゲーション装置で自動選曲モードが選択されると、所定の確率に応じて曲が選択される(S1)次に、音楽の序盤部分の所定の時間内において、画像センサ5からの画像データに基づいて、ユーザの接触行動の有無の判定が行われる(S2)。ユーザが接触部材4に接触していないと判定されたときには、そのまま音楽の再生を続ける(S8)。ユーザが接触部材4に接触していると判定されたときには、接触データから特徴パターンを抽出し、特徴パターンからユーザの感情を推定する(S3)。そして、推定した感情に対応するフィードバック反応シグナルを発信する(S4)。   FIG. 10 is a flowchart for explaining operations of the emotion analysis device 1 and the navigation device when music is provided to the user in the automatic music selection mode. As shown in FIG. 10, when the automatic music selection mode is selected by the navigation device, a music piece is selected according to a predetermined probability (S1). Next, within a predetermined time in the early part of the music, the image sensor 5 is selected. Based on the image data from, it is determined whether or not the user has a contact action (S2). When it is determined that the user is not in contact with the contact member 4, music reproduction is continued as it is (S8). When it is determined that the user is in contact with the contact member 4, a feature pattern is extracted from the contact data, and the user's emotion is estimated from the feature pattern (S3). Then, a feedback reaction signal corresponding to the estimated emotion is transmitted (S4).

次に、ユーザの感情の推定結果(S3)から、ユーザが快適と感じているか否かの判定を行う(S5)。ユーザが快適と感じていないと判定されたときには、現在再生されている音楽がユーザの好みでないものとみなし、以後、この音楽が自動選曲で選ばれる確率を低くすることでユーザの嗜好を学習する(S6)。一方、ユーザが快適と感じていると判定されたときには、ユーザは現在再生されている音楽が好きであるものとみなし、以後、この音楽が自動選曲で選ばれる確率を高くすることでユーザの嗜好を学習し(S7)、現在再生されている音楽をそのまま続けて再生する(S8)。   Next, it is determined whether or not the user feels comfortable from the estimation result (S3) of the user (S5). When it is determined that the user does not feel comfortable, it is considered that the currently played music is not the user's preference, and thereafter the user's preference is learned by reducing the probability that this music is selected for automatic music selection. (S6). On the other hand, when it is determined that the user feels comfortable, the user is assumed to like the currently played music, and thereafter the user's preference is increased by increasing the probability that this music is selected for automatic music selection. Is learned (S7), and the currently reproduced music is continuously reproduced as it is (S8).

自動選曲によって音楽が再生されてから所定の時間が経った後にも、曲の序盤と同様に、画像センサ5からの画像データに基づいて、ユーザの接触行動の有無の判定が行われる(S9)。ユーザが接触部材4に接触していないと判定されたときには、接触誘発シグナルを発信し、ユーザが接触部材4に触れるよう促す(S10)。ユーザが接触部材4に接触していると判定されたときには、接触データから特徴パターンを抽出し、特徴パターンからユーザの感情を推定する(S11)。このユーザの感情の推定結果から、ユーザが自動選曲された音楽を気に入ったか否かの判定を行う(S12)。例えば、自動選曲された音楽をユーザが特に気に入った場合には、ユーザは、「音楽にあわせてリズムをきざむ」「なでる」「○印をかく」などの接触行動を行う。このような接触行動の接触データから特徴パターンを抽出し、特徴パターンから「喜」や「楽」というユーザの感情が推定された場合には、ユーザは現在再生されている音楽が好きであるものとみなし、以後、この音楽が自動選曲で選ばれる確率を高くすることでユーザの好みを学習する(S13)。一方、自動選曲された音楽をユーザが特別に気に入っているわけではない場合には、学習は行わず、そのまま現在の音楽を再生し続ける。   Even after a predetermined time has passed since the music was reproduced by automatic music selection, the presence / absence of the user's contact action is determined based on the image data from the image sensor 5 as in the early stage of the music (S9). . When it is determined that the user is not in contact with the contact member 4, a contact induction signal is transmitted to prompt the user to touch the contact member 4 (S10). When it is determined that the user is in contact with the contact member 4, a feature pattern is extracted from the contact data, and the user's emotion is estimated from the feature pattern (S11). It is determined from the estimation result of the user's emotion whether or not the user likes the automatically selected music (S12). For example, when the user particularly likes the automatically selected music, the user performs a contact action such as “kick the rhythm in accordance with the music”, “stroking”, or “scratch a circle”. When a feature pattern is extracted from contact data of such contact behavior, and the user's emotion of “joy” or “easy” is estimated from the feature pattern, the user likes the music currently being played Thereafter, the user's preference is learned by increasing the probability that this music is selected by automatic music selection (S13). On the other hand, if the user does not particularly like the automatically selected music, learning is not performed and the current music continues to be played as it is.

そして、音楽が終了するまで、続けて音楽を再生する(S14)。音楽が終了した場合には、再び自動選曲によって次の音楽が選ばれる。つまり、次の自動選曲が行われる(次の自動選曲開始へ戻る)。   Then, the music is continuously played until the music is finished (S14). When the music ends, the next music is selected again by automatic music selection. That is, the next automatic music selection is performed (return to the start of the next automatic music selection).

このような本実施の形態の感情分析デバイス1によれば、ユーザの感情を反映する様々な接触行動に基づいて、ユーザの様々な感情を推定することができる。   According to the emotion analysis device 1 of the present embodiment, various emotions of the user can be estimated based on various contact behaviors that reflect the emotion of the user.

すなわち、本実施の形態では、接触部材4に対するユーザの手の接触行動からユーザの手の接触データを検出し、その接触データから複数の特徴パターンを抽出して、その複数の特徴パターンからユーザの感情を推定する。ユーザの持つ様々な感情は、ユーザの接触行動に現れる。例えば、ユーザが苛立っている場合、ユーザは接触部材4を「たたく」などの接触行動を行う。このようなユーザの感情を反映する様々な接触行動(たたく、なでる、にぎる等)に基づいて、ユーザの様々な感情(喜、怒、哀、楽など)を推定することができる。   That is, in the present embodiment, contact data of the user's hand is detected from the contact action of the user's hand with respect to the contact member 4, and a plurality of feature patterns are extracted from the contact data, and the user's hand contact data is extracted from the plurality of feature patterns. Estimate emotions. Various emotions of the user appear in the user's contact behavior. For example, when the user is frustrated, the user performs a contact action such as “tapping” the contact member 4. Based on various contact actions (striking, stroking, squeezing, etc.) reflecting such user's emotions, it is possible to estimate various user emotions (eg, joy, anger, sorrow, comfort).

また、本実施の形態では、ニューラルネットワークを用いて、複数の特徴パターンからユーザの感情を精度良く推定することができる。   Moreover, in this Embodiment, a user's emotion can be estimated with a sufficient precision from a some feature pattern using a neural network.

また、本実施の形態では、ユーザが手を接触させる接触部材4が球面状であるため、ユーザに操作をしているという感覚を与えるのを抑えることができる。ユーザの感情を反映する接触行動は、ユーザが無意識に行うものが多い。したがって、ユーザは接触部材4に対して自然な感覚で接触行動を行うことができる。   Moreover, in this Embodiment, since the contact member 4 with which a user contacts a hand is spherical shape, it can suppress giving the sense that it is operating to a user. Many contact actions that reflect the user's emotions are unconsciously performed by the user. Therefore, the user can perform a contact action on the contact member 4 with a natural sense.

つまり、接触部材4として球面状の接触球面部を用いると、ユーザは「なでる」「たたく」「にぎる」「かく」「リズムを刻む」「なぐる」「強くたたく」「つつく」「はじく」など、様々な接触行動を行うことができる。これにより、様々な特徴パターンの抽出が可能となり、ユーザの様々な感情(喜、怒、哀、楽など)を推定しやすくなる。   In other words, when a spherical contact spherical surface is used as the contact member 4, the user can “spat”, “tap”, “niggle”, “kick”, “kick the rhythm”, “snuggle”, “tap strongly”, “peck”, “purge”, etc. Various contact actions can be performed. Thereby, various feature patterns can be extracted, and it becomes easy to estimate various emotions (joy, anger, sorrow, comfort, etc.) of the user.

また、本実施の形態では、ユーザが接触部材4に手を接触させると、ユーザの感情に応じたフィードバック反応シグナルがユーザに返される。このフィードバック反応シグナルによって、ユーザが再度接触部材4に手を接触させるように、ユーザの興味を引くことができる。   Moreover, in this Embodiment, when a user makes a hand contact the contact member 4, the feedback reaction signal according to a user's emotion will be returned to a user. This feedback reaction signal can attract the user's interest so that the user touches the contact member 4 again.

また、本実施の形態では、ユーザが接触部材4に手を接触させていないと、接触誘発シグナルがユーザに発せられる。この接触誘発シグナルによって、ユーザが接触部材4に手を接触させるように、ユーザの注意を喚起することができる。   Moreover, in this Embodiment, if the user has not made the hand contact the contact member 4, a contact induction signal will be emitted to a user. By this contact inducing signal, the user can be alerted so that the user touches the contact member 4 with his / her hand.

このような光と振動のフィードバック反応シグナルや接触誘発シグナルにより、あたかもデバイス1に人格が存在するかのようにユーザに錯覚を生じさせることができる。これにより、デバイス1や車に愛着がわき、デバイス1に何度も触れてみたい、あるいは、再び車に乗りたいと思わせることができる。また、光と振動のフィードバック反応シグナルや接触誘発シグナルにより、車内の美観を向上させることができる。つまり、このデバイス1は、車内インテリアとしての機能も有しているといえる。   Such light and vibration feedback reaction signals and contact-inducing signals can create an illusion for the user as if the device 1 has a personality. As a result, the device 1 and the car can be attached, and it is possible to make the user want to touch the device 1 many times or to get into the car again. In addition, the aesthetics of the interior of the vehicle can be improved by feedback reaction signals of light and vibration and contact induction signals. That is, it can be said that the device 1 also has a function as an interior of the vehicle.

以下、従来の装置と対比することで本実施の形態の利点をより詳細に説明する。   Hereinafter, the advantages of the present embodiment will be described in more detail by comparing with a conventional apparatus.

ユーザの顔の表情に基づいてユーザの感情の分析を行う従来の装置では、ユーザがカメラ方向を向いていないときには、ユーザの顔の表情の情報が得られず、ユーザの感情を抽出することができないという問題があった。これに対して、本実施の形態では、ユーザがカメラ方向を向いていないときであっても、ユーザの接触行動に基づいてユーザの感情を推定することができる。   In the conventional apparatus that analyzes the user's emotion based on the facial expression of the user, when the user is not facing the camera, information on the facial expression of the user cannot be obtained, and the user's emotion can be extracted. There was a problem that I could not. On the other hand, in this embodiment, even when the user is not facing the camera, the user's emotion can be estimated based on the user's contact behavior.

また、車両を運転中のユーザは様々な方向を向くことがある。さらに、ユーザはサングラス等をかけて車両の運転を行うこともある。そのような場合、従来の装置では、ユーザの顔の情報を十分に取得するのが困難であり、ユーザの感情の分析が容易でないという問題があった。それに対して、本実施の形態では、そのような場合であっても、ユーザの接触行動に基づいてユーザの感情を推定することができる。   In addition, a user driving a vehicle may face various directions. Further, the user may drive the vehicle wearing sunglasses or the like. In such a case, the conventional apparatus has a problem that it is difficult to sufficiently acquire information on the user's face, and analysis of the user's emotion is not easy. On the other hand, in this Embodiment, even in such a case, a user's emotion can be estimated based on a user's contact action.

また、窓から太陽の光などがユーザの顔を照らす場合、従来の装置では、撮影したユーザの顔画像が著しく不明瞭なものになってしまう。そのような場合、顔画像からユーザの感情の分析するのが困難になるという問題があった。これに対して、本実施の形態では、窓から太陽の光などがユーザの顔を照らしていても、ユーザの接触行動に基づいてユーザの感情を推定することができる。   In addition, when sunlight or the like shines on the user's face from the window, the captured image of the user's face is significantly unclear in the conventional apparatus. In such a case, there is a problem that it is difficult to analyze the emotion of the user from the face image. On the other hand, in this Embodiment, even if the sunlight etc. are illuminating a user's face from a window, a user's emotion can be estimated based on a user's contact action.

ユーザの声の大小(音量)や発音の抑揚に基づいてユーザの感情の分析を行う従来の装置では、ユーザが話をしていないときには、ユーザの声の大小(音量)や発音の抑揚の情報が得られず、ユーザの感情を抽出することができないという問題があった。これに対して、本実施の形態では、ユーザが話しをしていないときであっても、ユーザの接触行動に基づいてユーザの感情を推定することができる。   In a conventional device that analyzes the user's emotion based on the loudness (volume) of the user's voice and pronunciation, information on the volume of the user's voice (volume) and the inflection of the pronunciation when the user is not speaking Cannot be obtained, and the user's emotion cannot be extracted. On the other hand, in this Embodiment, even when the user is not talking, a user's emotion can be estimated based on a user's contact action.

また、従来の装置では、運転中の車内はユーザの声以外の雑音が大きい場合には、ユーザの声の音量や発音の抑揚の情報を十分に取得するのが困難であり、その結果、ユーザの感情の分析が容易でないという問題があった。これに対して、本実施の形態では、そのような雑音の有無に係らず、ユーザの接触行動に基づいてユーザの感情を推定することができる。   In addition, in a conventional device, when there is a lot of noise other than the user's voice in the driving car, it is difficult to obtain sufficient information on the volume of the user's voice and the inflection of the pronunciation, and as a result, the user There was a problem that analysis of emotions was not easy. On the other hand, in this Embodiment, a user's emotion can be estimated based on a user's contact action irrespective of the presence or absence of such noise.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。   The embodiments of the present invention have been described above by way of example, but the scope of the present invention is not limited to these embodiments, and can be changed or modified according to the purpose within the scope of the claims. is there.

例えば、以上の説明では、複数の特徴パターンからユーザの感情を推定するネットワークモデルとしてニューラルネットワークを使用した例について説明した。しかし、本発明の範囲はこれに限定されるものではなく、複数の特徴パターンからユーザの感情を推定するネットワークモデルとして、例えばベイジアンネットワークなどのネットワークモデルを使用してもよい。   For example, in the above description, an example in which a neural network is used as a network model for estimating a user's emotion from a plurality of feature patterns has been described. However, the scope of the present invention is not limited to this, and a network model such as a Bayesian network may be used as a network model for estimating a user's emotion from a plurality of feature patterns.

以上のように、本発明にかかる感情分析デバイスは、ユーザの感情を反映する様々な接触行動に基づいて、ユーザの様々な感情を推定することができるという効果を有し、車両用のナビゲーション装置等とともに使用され、有用である。   As described above, the emotion analysis device according to the present invention has an effect that various emotions of the user can be estimated based on various contact behaviors that reflect the emotions of the user, and the vehicle navigation apparatus. Is useful together with etc.

本実施の形態における感情分析デバイスのブロック図である。It is a block diagram of the emotion analysis device in this Embodiment. 感情分析デバイスの筐体部の主要な構成を示す説明図である。It is explanatory drawing which shows the main structures of the housing | casing part of an emotion analysis device. 感情分析デバイスの設置例を示す説明図である。It is explanatory drawing which shows the example of installation of an emotion analysis device. (a)ユーザの接触行動「にぎる」の一例を示す説明図である。 (b)ユーザの接触行動「なでる」の一例を示す説明図である。 (c)ユーザの接触行動「激しくなでる」の一例を示す説明図である。 (d)ユーザの接触行動「なぐる」の一例を示す説明図である。 (e)ユーザの接触行動「つつく」の一例を示す説明図である。 (f)ユーザの接触行動「はじく」の一例を示す説明図である。 (g)ユーザの接触行動「かく」の一例を示す説明図である。 (h)ユーザの接触行動「リズムをきざむ」の一例を示す説明図である。 (i)ユーザの接触行動「たたく」の一例を示す説明図である。 (j)ユーザの接触行動「強くたたく」の一例を示す説明図である。(A) It is explanatory drawing which shows an example of a user's contact action "Nigiri". (B) It is explanatory drawing which shows an example of a user's contact action "stroking". (C) It is explanatory drawing which shows an example of a user's contact action "striking intensely". (D) It is explanatory drawing which shows an example of a user's contact action "naguru". (E) It is explanatory drawing which shows an example of a user's contact action "pecking". (F) It is explanatory drawing which shows an example of a user's contact action "flick". (G) It is explanatory drawing which shows an example of a user's contact action "Kaku". (H) It is explanatory drawing which shows an example of a user's contact action "kick a rhythm." (I) It is explanatory drawing which shows an example of a user's contact action "tap". (J) It is explanatory drawing which shows an example of a user's contact action "striking strongly". ユーザの接触行動とユーザの感情の相関関係を示す説明図である。It is explanatory drawing which shows the correlation of a user's contact action and a user's emotion. (a)ユーザが右手で「にぎる」を行ったときの接触データ(画像データ)の一例を示す説明図である。 (b)ユーザが左手で「にぎる」を行ったときの接触データ(画像データ)の一例を示す説明図である。 (c)ユーザが左手で「リズムをきざむ」を行ったときの接触データ(画像データ)の一例を示す説明図である。 (d)ユーザが左手で「つつく」を行ったときの接触データ(画像データ)の一例を示す説明図である。(A) It is explanatory drawing which shows an example of contact data (image data) when a user performs "nigiri" with a right hand. (B) It is explanatory drawing which shows an example of contact data (image data) when a user performs "nigiri" with a left hand. (C) It is explanatory drawing which shows an example of contact data (image data) when a user performs "kick a rhythm" with a left hand. (D) It is explanatory drawing which shows an example of contact data (image data) when a user performs "pecking" with the left hand. (a)ユーザが「なでる」を行ったときの特徴パターン(動きベクトル)の一例を示す説明図である。 (b)ユーザが「激しくなでる」を行ったときの特徴パターン(動きベクトル)の一例を示す説明図である。(A) It is explanatory drawing which shows an example of the characteristic pattern (motion vector) when a user performs "stroking". (B) It is explanatory drawing which shows an example of the characteristic pattern (motion vector) when a user performs "stroke strenuously". 複数の特徴パターン(入力ノード)からユーザの感情(出力ノード)を推定するためのニューラルネットワークの説明図である。It is explanatory drawing of the neural network for estimating a user's emotion (output node) from a some feature pattern (input node). フィードバック反応シグナルと接触誘発シグナルの一例を示す説明図である。It is explanatory drawing which shows an example of a feedback reaction signal and a contact induction signal. 本実施の形態の感情解析デバイスの動作説明のためのフロー図である。It is a flowchart for operation | movement description of the emotion analysis device of this Embodiment.

符号の説明Explanation of symbols

1 感情分析デバイス
4 接触部材
5 画像センサ
6 圧力センサ
7 光源
8 振動モータ
9 接触球面部
10 特徴パターン抽出部
11 パターン解析部
12 光源制御部
13 振動制御部
14 ネットワークモデル記憶部
DESCRIPTION OF SYMBOLS 1 Emotion analysis device 4 Contact member 5 Image sensor 6 Pressure sensor 7 Light source 8 Vibration motor 9 Contact spherical surface part 10 Feature pattern extraction part 11 Pattern analysis part 12 Light source control part 13 Vibration control part 14 Network model memory | storage part

Claims (11)

ユーザが手を接触させる接触部材であって、前記ユーザの感情を反映する接触行動を前記ユーザが行ったときに、前記接触行動によって前記ユーザの手が接触する接触部材と、
前記接触部材に備えられ、前記接触行動における前記ユーザの手の接触状態に関する接触データを検出する接触データ検出手段と、
前記接触データに基づいて、前記接触行動に含まれる複数の行動要素に対応する特徴量として、複数の特徴パターンを抽出する特徴パターン抽出手段と、
前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行うパターン解析手段と、
を備えたことを特徴とする感情分析デバイス。
A contact member that a user contacts with a hand, and when the user performs a contact action that reflects the user's emotion, the contact member that the user's hand contacts with the contact action;
Contact data detection means provided on the contact member for detecting contact data relating to a contact state of the user's hand in the contact behavior;
Feature pattern extraction means for extracting a plurality of feature patterns as feature amounts corresponding to a plurality of behavior elements included in the contact behavior based on the contact data;
Pattern analysis means for performing pattern analysis to estimate the user's emotion from the plurality of feature patterns based on the relationship between the feature pattern and the user's emotion;
Emotion analysis device characterized by having
前記接触部材は、前記ユーザが手を接触させる立体的な形状の接触部を有することを特徴とする請求項1に記載の感情分析デバイス。   The emotion analysis device according to claim 1, wherein the contact member includes a three-dimensional contact portion that allows the user to touch the hand. 前記立体的な形状の接触部は、前記ユーザが手を接触させる球面状の接触球面部であることを特徴とする請求項2に記載の感情分析デバイス。   The emotion analysis device according to claim 2, wherein the three-dimensional contact portion is a spherical contact spherical portion with which the user contacts a hand. 前記ユーザの接触行動は、前記ユーザが手のひらまたは指を前記接触部材に接触させる行動であり、
前記パターン解析手段は、前記ユーザの手のひらまたは指による接触行動から抽出された前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行うことを特徴とする請求項1〜請求項3のいずれかに記載の感情分析デバイス。
The contact action of the user is an action in which the user brings a palm or a finger into contact with the contact member,
The pattern analysis means performs pattern analysis for estimating the user's emotion from the plurality of feature patterns extracted from the contact action by the palm or finger of the user. The emotion analysis device described in Crab.
前記ユーザの接触行動には、前記接触球面部をなでる、たたく、にぎる、かく、なぐる、つつく、はじく、前記接触球面部上でリズムを刻む、のうちの少なくとも一つが含まれ、
前記パターン解析手段は、前記ユーザの複数の接触行動の各々から抽出された前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行うことを特徴とする請求項1〜請求項4のいずれかに記載の感情分析デバイス。
The contact action of the user includes at least one of stroking, tapping, squeezing, stroking, plucking, repelling, and engraving a rhythm on the contact spherical part,
The pattern analysis unit performs pattern analysis for estimating the user's emotion from the plurality of feature patterns extracted from each of the plurality of contact actions of the user. The emotion analysis device described in Crab.
前記パターン解析手段によって推定された前記ユーザの感情に応じたフィードバック反応シグナルとして、光または振動の少なくとも一つを含むフィードバック反応シグナルを前記ユーザに対して出力するフィードバック手段を備えたことを特徴とする請求項1〜請求項5のいずれかに記載の感情分析デバイス。   Feedback means for outputting a feedback reaction signal including at least one of light or vibration to the user as a feedback reaction signal according to the user's emotion estimated by the pattern analysis means is provided. The emotion analysis device according to claim 1. 前記接触部材に前記ユーザが手を接触させていないときに、前記ユーザの接触行動を誘発するための接触誘発シグナルとして、光または振動の少なくとも一つを含む接触誘発シグナルを前記ユーザに対して出力する接触誘発手段を備えたことを特徴とする請求項1〜請求項6のいずれかに記載の感情分析デバイス。   When the user does not touch the contact member, a contact induction signal including at least one of light or vibration is output to the user as a contact induction signal for inducing the user's contact behavior The emotion analysis device according to any one of claims 1 to 6, further comprising contact inducing means. 前記接触行動についての前記ユーザごとの個人的な特性を学習し、前記ユーザの特徴パターンと前記ユーザの感情との関係性を更新する学習更新手段を備え、
前記パターン解析手段は、更新された前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行うことを特徴とする請求項1〜請求項7のいずれかに記載の感情分析デバイス。
Learning personal characteristics for each of the users about the contact behavior, comprising learning update means for updating the relationship between the user's feature pattern and the user's emotions,
The pattern analysis means performs pattern analysis for estimating the user's emotion from the plurality of feature patterns based on the relationship between the updated feature pattern and the user's emotion. The emotion analysis device according to claim 7.
複数の入力ノードの値の組み合わせから所定の出力ノードの値を算出するネットワークモデルであって、前記入力ノードとして前記特徴パターンが用いられ、前記出力ノードとして前記ユーザの感情が用いられるネットワークモデルを記憶するネットワークモデル記憶手段を備え、
前記パターン解析手段は、前記ネットワークモデルを使用して、前記複数の特徴パターンから前記ユーザの感情を推定することを特徴とする請求項1〜請求項8のいずれかに記載の感情分析デバイス。
A network model for calculating a value of a predetermined output node from a combination of values of a plurality of input nodes, wherein the feature pattern is used as the input node and the user's emotion is used as the output node Network model storage means for
The emotion analysis device according to claim 1, wherein the pattern analysis unit estimates the user's emotion from the plurality of feature patterns using the network model.
ユーザが手を接触させる接触部材に対して前記ユーザの感情を反映する接触行動を行ったときに、前記接触行動における前記ユーザの手の接触状態に関する接触データを検出し、
前記接触データに基づいて、前記接触行動に含まれる複数の行動要素に対応する特徴量として、複数の特徴パターンを抽出し、
前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行うことを特徴とする感情分析方法。
When the user performs a contact action that reflects the user's feelings on the contact member that contacts the hand, contact data relating to the contact state of the user's hand in the contact action is detected,
Based on the contact data, a plurality of feature patterns are extracted as feature amounts corresponding to a plurality of behavior elements included in the contact behavior,
An emotion analysis method comprising: performing pattern analysis for estimating the user's emotion from the plurality of feature patterns based on the relationship between the feature pattern and the user's emotion.
ユーザが手を接触させる接触部材に対して前記ユーザの感情を反映する接触行動を行ったときに、前記接触行動における前記ユーザの手の接触状態に関する接触データに基づいて、
コンピュータに、
前記接触データから、前記接触行動に含まれる複数の行動要素に対応する特徴量として、複数の特徴パターンを抽出する処理と、
前記特徴パターンと前記ユーザの感情との関係性に基づいて、前記複数の特徴パターンから前記ユーザの感情を推定するパターン解析を行う処理と、
を実行させることを特徴とする感情分析プログラム。
Based on contact data regarding the contact state of the user's hand in the contact behavior, when the user performs a contact behavior that reflects the user's feelings on the contact member that contacts the hand,
On the computer,
A process of extracting a plurality of feature patterns as feature quantities corresponding to a plurality of behavior elements included in the contact behavior from the contact data;
Based on the relationship between the feature pattern and the user's emotion, a process of performing pattern analysis for estimating the user's emotion from the plurality of feature patterns;
An emotion analysis program characterized by running
JP2007189520A 2007-07-20 2007-07-20 Emotion analysis device, emotion analysis method, and program Pending JP2009026125A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007189520A JP2009026125A (en) 2007-07-20 2007-07-20 Emotion analysis device, emotion analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007189520A JP2009026125A (en) 2007-07-20 2007-07-20 Emotion analysis device, emotion analysis method, and program

Publications (1)

Publication Number Publication Date
JP2009026125A true JP2009026125A (en) 2009-02-05

Family

ID=40397865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007189520A Pending JP2009026125A (en) 2007-07-20 2007-07-20 Emotion analysis device, emotion analysis method, and program

Country Status (1)

Country Link
JP (1) JP2009026125A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535632A (en) * 2012-11-21 2015-12-14 ソムニック インク. Apparatus, system, and method for empathic computing
USD806711S1 (en) 2015-12-11 2018-01-02 SomniQ, Inc. Portable electronic device
US9946351B2 (en) 2015-02-23 2018-04-17 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
WO2018182337A1 (en) * 2017-03-31 2018-10-04 삼성전자주식회사 Electronic device for determining emotion of user and method for controlling same
US10222875B2 (en) 2015-12-11 2019-03-05 SomniQ, Inc. Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
JP2019096189A (en) * 2017-11-27 2019-06-20 Kddi株式会社 Music selection apparatus, method for selecting music, and program
JP2020160724A (en) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 Control device and information presentation device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08179881A (en) * 1994-12-26 1996-07-12 Sharp Corp Input device for computer
JPH11232012A (en) * 1998-02-17 1999-08-27 Omron Corp Interface device and interface system
JP2001034410A (en) * 1999-07-26 2001-02-09 Matsushita Electric Ind Co Ltd Kansei input device and Kansei estimation method
JP2003216321A (en) * 2002-01-25 2003-07-31 Alps Electric Co Ltd Optical input device
JP2005339088A (en) * 2004-05-26 2005-12-08 Hori Co Ltd Spherical type input device
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and information processing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08179881A (en) * 1994-12-26 1996-07-12 Sharp Corp Input device for computer
JPH11232012A (en) * 1998-02-17 1999-08-27 Omron Corp Interface device and interface system
JP2001034410A (en) * 1999-07-26 2001-02-09 Matsushita Electric Ind Co Ltd Kansei input device and Kansei estimation method
JP2003216321A (en) * 2002-01-25 2003-07-31 Alps Electric Co Ltd Optical input device
JP2005339088A (en) * 2004-05-26 2005-12-08 Hori Co Ltd Spherical type input device
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and information processing apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535632A (en) * 2012-11-21 2015-12-14 ソムニック インク. Apparatus, system, and method for empathic computing
US9830005B2 (en) 2012-11-21 2017-11-28 SomniQ, Inc. Devices, systems, and methods for empathetic computing
US9946351B2 (en) 2015-02-23 2018-04-17 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
US10409377B2 (en) 2015-02-23 2019-09-10 SomniQ, Inc. Empathetic user interface, systems, and methods for interfacing with empathetic computing device
USD806711S1 (en) 2015-12-11 2018-01-02 SomniQ, Inc. Portable electronic device
US10222875B2 (en) 2015-12-11 2019-03-05 SomniQ, Inc. Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection
USD864961S1 (en) 2015-12-11 2019-10-29 SomniQ, Inc. Portable electronic device
USD940136S1 (en) 2015-12-11 2022-01-04 SomniQ, Inc. Portable electronic device
WO2018182337A1 (en) * 2017-03-31 2018-10-04 삼성전자주식회사 Electronic device for determining emotion of user and method for controlling same
JP2019096189A (en) * 2017-11-27 2019-06-20 Kddi株式会社 Music selection apparatus, method for selecting music, and program
JP2020160724A (en) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 Control device and information presentation device
JP7345751B2 (en) 2019-03-26 2023-09-19 株式会社東海理化電機製作所 Control device and information presentation device

Similar Documents

Publication Publication Date Title
US20220291753A1 (en) Spatial Gesture Recognition using Inputs from Different Devices to Control a Computing Device
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
US20220253146A1 (en) Combine Inputs from Different Devices to Control a Computing Device
JP4481663B2 (en) Motion recognition device, motion recognition method, device control device, and computer program
US20070074114A1 (en) Automated dialogue interface
JP2009026125A (en) Emotion analysis device, emotion analysis method, and program
KR20010095176A (en) Robot and action deciding method for robot
KR20170107875A (en) Robot control system
CN113056315B (en) Information processing device, information processing method, and program
JP2002049385A (en) Voice synthesis device, pseudo-emotional expression device, and voice synthesis method
CN107463291A (en) The robot with personification performance based on touch
CN121219760A (en) System and method for interacting with discoverable objects and designating the location of the interaction page by pointing a beam through a handheld device
JP2021523472A (en) How to control multiple robot effectors
JP2024154409A (en) Behavior Control System
KR102490035B1 (en) Vr simulator control method using emotional state estimation
US20230073513A1 (en) Information processing apparatus, information processing method, and program
JP2002273674A (en) Robot control device and method, program code, and storage medium
JP2001134362A (en) Doll type interface virtual space walking through system
WO2024190445A1 (en) Behavior control system and program
JP2024157532A (en) Behavior Control System
JP2024154404A (en) Behavior Control System
JP2024155825A (en) Behavior Control System
JP2024159593A (en) Electronics
JP2024156636A (en) Behavior Control System
da Silva et al. Computer-Human Interaction Research and Applications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120228