[go: up one dir, main page]

JP2024154417A - Behavior Control System - Google Patents

Behavior Control System Download PDF

Info

Publication number
JP2024154417A
JP2024154417A JP2024066851A JP2024066851A JP2024154417A JP 2024154417 A JP2024154417 A JP 2024154417A JP 2024066851 A JP2024066851 A JP 2024066851A JP 2024066851 A JP2024066851 A JP 2024066851A JP 2024154417 A JP2024154417 A JP 2024154417A
Authority
JP
Japan
Prior art keywords
user
robot
behavior
emotion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024066851A
Other languages
Japanese (ja)
Inventor
正義 孫
Masayoshi Son
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Group Corp
Original Assignee
SoftBank Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Group Corp filed Critical SoftBank Group Corp
Publication of JP2024154417A publication Critical patent/JP2024154417A/en
Pending legal-status Critical Current

Links

Abstract

To make a robot take an appropriate action in response to an action of a user.SOLUTION: A robot inputs a text representing a user and a text representing a selected scene into an image generation model to generate an image representing the scene. The robot also analyzes a text representing an action of the user generated as a prompt to be input to the image generation model (S200-S202), extracts user information including hobbies of the user to update history data (S206), determines an action of the user based on the updated user information, acquires information necessary for a proposed action, and provides the information to the user.SELECTED DRAWING: Figure 9

Description

本発明は、行動制御システムに関する。 The present invention relates to a behavior control system.

特許文献1には、ユーザの状態に対してロボットの適切な行動を決定する技術が開示されている。特許文献1の従来技術は、ロボットが特定の行動を実行したときのユーザの反応を認識し、認識したユーザの反応に対するロボットの行動を決定できなかった場合、認識したユーザの状態に適した行動に関する情報をサーバから受信することで、ロボットの行動を更新する。 Patent Document 1 discloses a technology for determining an appropriate robot behavior in response to a user's state. The conventional technology in Patent Document 1 recognizes the user's reaction when the robot performs a specific action, and if the robot is unable to determine an action to be taken in response to the recognized user reaction, it updates the robot's behavior by receiving information about an action appropriate to the recognized user's state from a server.

特許6053847号公報Patent No. 6053847

しかしながら従来技術では、ユーザの行動に対して適切な行動をロボットに実行させる上で改善の余地がある。 However, conventional technology leaves room for improvement in terms of enabling robots to perform appropriate actions in response to user actions.

本発明の第1の態様によれば、ユーザの行動を含むユーザ状態を認識するユーザ状態認識部と、ユーザの感情又はロボットの感情を判定する感情決定部と、ユーザとロボットを対話させる対話機能を有する文章生成モデルに基づき、前記ユーザ状態と、ユーザの感情又はロボットの感情とに対応する前記ロボットの行動を決定する行動決定部と、を含み、前記行動決定部は、前記ユーザの行動を含む履歴データに基づいて、予め定められた選択基準を満たす場面を選択し、選択した当該場面を表すテキストを、画像生成モデルに入力して、前記場面を表す画像を生成すると共に、前記テキストに基づいて、ユーザの趣味を含むユーザの情報を抽出し、抽出したユーザの情報に基づいて、ユーザに提案する内容を決定する。 According to a first aspect of the present invention, the system includes a user state recognition unit that recognizes a user state including a user's behavior, an emotion determination unit that determines the user's emotion or the robot's emotion, and a behavior determination unit that determines the robot's behavior corresponding to the user state and the user's emotion or the robot's emotion based on a sentence generation model having a dialogue function that allows the user and the robot to converse. The behavior determination unit selects a scene that satisfies a predetermined selection criterion based on history data including the user's behavior, inputs text representing the selected scene into an image generation model to generate an image representing the scene, and extracts user information including the user's hobbies based on the text, and determines content to be suggested to the user based on the extracted user information.

第2の態様では、前記行動決定部は、抽出したユーザの情報に関連する関連情報を収集し、収集した前記関連情報を含めてユーザに提案する行動を決定する。 In a second aspect, the action decision unit collects related information related to the extracted user information and decides on an action to be suggested to the user, including the collected related information.

第3の態様では、行動決定部が決定した行動に基づいて、前記ロボットに設けられたスピーカからの発話を制御することによりユーザに行動の提案を行う行動制御部を更に含む。 In a third aspect, the robot further includes a behavior control unit that suggests actions to the user by controlling speech from a speaker provided on the robot based on the action determined by the behavior determination unit.

第4の態様では、前記行動決定部は、抽出したユーザの情報を前記履歴データに記憶し、前記行動制御部は、前記履歴データに記憶したユーザの情報に関連するタイミングにユーザに行動の提案を行う。 In a fourth aspect, the behavior decision unit stores the extracted user information in the history data, and the behavior control unit suggests an action to the user at a timing related to the user information stored in the history data.

第5の態様では、前記行動決定部は、抽出したユーザの情報を前記履歴データに記憶し、前記履歴データに記憶されたユーザの情報を用いて、他のユーザとのマッチングを行う。 In a fifth aspect, the behavior decision unit stores the extracted user information in the history data, and matches the user with other users using the user information stored in the history data.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.

本実施形態に係るシステム5の一例を概略的に示す。1 illustrates a schematic diagram of an example of a system 5 according to the present embodiment. ロボット100の機能構成を概略的に示す。2 shows a schematic functional configuration of the robot 100. ロボット100による動作フローの一例を概略的に示す。10 shows an example of an operation flow of the robot 100. コンピュータ1200のハードウェア構成の一例を概略的に示す。1 illustrates an example of a hardware configuration of a computer 1200. 複数の感情がマッピングされる感情マップ400を示す。4 shows an emotion map 400 onto which multiple emotions are mapped. 複数の感情がマッピングされる感情マップ900を示す。9 shows an emotion map 900 onto which multiple emotions are mapped. 他の実施形態に係るぬいぐるみの外観図である。FIG. 13 is an external view of a stuffed animal according to another embodiment. 他の実施形態に係る絵日記の一例である。13 is an example of a picture diary according to another embodiment. ロボット100が、絵日記Pを作成する際に生成したプロンプトを分析してユーザ10の趣味を含む情報を履歴データ222に更新する場合の具体的な処理の流れの一例を示すフローチャートである。11 is a flowchart showing an example of a specific processing flow when the robot 100 analyzes a prompt generated when creating a picture diary P and updates information including the hobbies of the user 10 in the history data 222. ロボット100が、ユーザ10に行動の提案を行う場合の具体的な処理の流れの一例を示すフローチャートである。11 is a flowchart showing an example of a specific process flow when the robot 100 suggests an action to the user 10. ロボット100が、絵日記P用に作成したプロンプトを分析することにより、趣味を含むユーザ10の情報を用いて他のユーザとのマッチングを行う場合の具体的な処理の流れの一例を示すフローチャートである。11 is a flowchart showing an example of a specific processing flow when the robot 100 analyzes a prompt created for a picture diary P and matches the user 10 with other users using information about the user 10, including hobbies.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.

図1は、本実施形態に係るシステム5の一例を概略的に示す。システム5は、ロボット100、ロボット101、ロボット102、及びサーバ300を備える。ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dは、ロボット100のユーザである。ユーザ11a、ユーザ11b及びユーザ11cは、ロボット101のユーザである。ユーザ12a及びユーザ12bは、ロボット102のユーザである。なお、本実施形態の説明において、ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dを、ユーザ10と総称する場合がある。また、ユーザ11a、ユーザ11b及びユーザ11cを、ユーザ11と総称する場合がある。また、ユーザ12a及びユーザ12bを、ユーザ12と総称する場合がある。ロボット101及びロボット102は、ロボット100と略同一の機能を有する。そのため、ロボット100の機能を主として取り上げてシステム5を説明する。 1 is a schematic diagram of an example of a system 5 according to the present embodiment. The system 5 includes a robot 100, a robot 101, a robot 102, and a server 300. A user 10a, a user 10b, a user 10c, and a user 10d are users of the robot 100. A user 11a, a user 11b, and a user 11c are users of the robot 101. A user 12a and a user 12b are users of the robot 102. In the description of the present embodiment, the user 10a, the user 10b, the user 10c, and the user 10d may be collectively referred to as the user 10. The user 11a, the user 11b, and the user 11c may be collectively referred to as the user 11. The user 12a and the user 12b may be collectively referred to as the user 12. The robot 101 and the robot 102 have substantially the same functions as the robot 100. Therefore, the system 5 will be described by mainly focusing on the functions of the robot 100.

ロボット100は、ユーザ10と会話を行ったり、ユーザ10に映像を提供したりする。このとき、ロボット100は、通信網20を介して通信可能なサーバ300等と連携して、ユーザ10との会話や、ユーザ10への映像等の提供を行う。例えば、ロボット100は、自身で適切な会話を学習するだけでなく、サーバ300と連携して、ユーザ10とより適切に会話を進められるように学習を行う。また、ロボット100は、撮影したユーザ10の映像データ等をサーバ300に記録させ、必要に応じて映像データ等をサーバ300に要求して、ユーザ10に提供する。 The robot 100 converses with the user 10 and provides images to the user 10. At this time, the robot 100 cooperates with a server 300 or the like with which it can communicate via the communication network 20 to converse with the user 10 and provide images, etc. to the user 10. For example, the robot 100 not only learns appropriate conversation by itself, but also cooperates with the server 300 to learn how to have a more appropriate conversation with the user 10. The robot 100 also records captured image data of the user 10 in the server 300, and requests the image data, etc. from the server 300 as necessary to provide it to the user 10.

また、ロボット100は、自身の感情の種類を表す感情値を持つ。例えば、ロボット100は、「喜」、「怒」、「哀」、「楽」、「快」、「不快」、「安心」、「不安」、「悲しみ」、「興奮」、「心配」、「安堵」、「充実感」、「虚無感」及び「普通」のそれぞれの感情の強さを表す感情値を持つ。ロボット100は、例えば興奮の感情値が大きい状態でユーザ10と会話するときは、早いスピードで音声を発する。このように、ロボット100は、自己の感情を行動で表現することができる。 The robot 100 also has an emotion value that represents the type of its own emotion. For example, the robot 100 has emotion values that represent the strength of each of the emotions of "happiness," "anger," "sorrow," "pleasure," "discomfort," "relief," "anxiety," "sorrow," "excitement," "worry," "relief," "fulfillment," "emptiness," and "neutral." When the robot 100 converses with the user 10 when its excitement emotion value is high, for example, it speaks at a fast speed. In this way, the robot 100 can express its own emotions through its actions.

また、ロボット100は、AI(Artificial Intelligence) The robot 100 also uses AI (Artificial Intelligence)

を用いた文章生成モデルと感情エンジンをマッチングさせることで、ユーザ10の感情に対応するロボット100の行動を決定するように構成してよい。具体的には、ロボット100は、ユーザ10の行動を認識して、当該ユーザの行動に対するユーザ10の感情を判定し、判定した感情に対応するロボット100の行動を決定するように構成してよい。 The robot 100 may be configured to determine an action of the robot 100 corresponding to the emotion of the user 10 by matching a sentence generation model using the above with an emotion engine. Specifically, the robot 100 may be configured to recognize the action of the user 10, determine the emotion of the user 10 regarding the action of the user, and determine an action of the robot 100 corresponding to the determined emotion.

より具体的には、ロボット100は、ユーザ10の行動を認識した場合、予め設定された文章生成モデルを用いて、当該ユーザ10の行動に対してロボット100がとるべき行動内容を自動で生成する。文章生成モデルは、文字による自動対話処理のためのアルゴリズム及び演算と解釈してよい。文章生成モデルは、例えば特開2018-081444号公報やchatGPT(インターネット検索<URL: https://openai.com/blog/chatgpt>)に開示される通り公知であるため、その詳細な説明を省略する。このような、文章生成モデルは、大規模言語モデル(LLM:Large Language Model)により構成されている。 More specifically, when the robot 100 recognizes the behavior of the user 10, the robot 100 automatically generates the behavioral content that the robot 100 should take in response to the behavior of the user 10, using a preset sentence generation model. The sentence generation model may be interpreted as an algorithm and calculation for automatic dialogue processing by text. The sentence generation model is publicly known as disclosed in, for example, JP 2018-081444 A and chatGPT (Internet search <URL: https://openai.com/blog/chatgpt>), and therefore a detailed description thereof will be omitted. Such a sentence generation model is configured by a large language model (LLM: Large Language Model).

以上、本実施形態は、大規模言語モデルと感情エンジンとを組み合わせることにより、ユーザ10やロボット100の感情と、様々な言語情報とをロボット100の行動に反映させるということができる。つまり、本実施形態によれば、文章生成モデルと感情エンジンとを組み合わせることにより、相乗効果を得ることができる。 As described above, this embodiment combines a large-scale language model with an emotion engine, thereby making it possible to reflect the emotions of the user 10 and the robot 100, as well as various linguistic information, in the behavior of the robot 100. In other words, according to this embodiment, a synergistic effect can be obtained by combining a sentence generation model with an emotion engine.

また、ロボット100は、ユーザ10の行動を認識する機能を有する。ロボット100は、カメラ機能で取得したユーザ10の顔画像や、マイク機能で取得したユーザ10の音声を解析することによって、ユーザ10の行動を認識する。ロボット100は、認識したユーザ10の行動等に基づいて、ロボット100が実行する行動を決定する。 The robot 100 also has a function of recognizing the behavior of the user 10. The robot 100 recognizes the behavior of the user 10 by analyzing the facial image of the user 10 acquired by the camera function and the voice of the user 10 acquired by the microphone function. The robot 100 determines the behavior to be performed by the robot 100 based on the recognized behavior of the user 10, etc.

ロボット100は、ユーザ10の感情、ロボット100の感情、及びユーザ10の行動に基づいてロボット100が実行する行動を定めたルールを記憶しており、ルールに従って各種の行動を行う。 The robot 100 stores rules that define the actions that the robot 100 will take based on the emotions of the user 10, the emotions of the robot 100, and the actions of the user 10, and performs various actions according to the rules.

具体的には、ロボット100には、ユーザ10の感情、ロボット100の感情、及びユーザ10の行動に基づいてロボット100の行動を決定するための反応ルールを有している。反応ルールには、例えば、ユーザ10の行動が「笑う」である場合に対して、「笑う」という行動が、ロボット100の行動として定められている。また、反応ルールには、ユーザ10の行動が「怒る」である場合に対して、「謝る」という行動が、ロボット100の行動として定められている。また、反応ルールには、ユーザ10の行動が「質問する」である場合に対して、「回答する」という行動が、ロボット100の行動として定められている。反応ルールには、ユーザ10の行動が「悲しむ」である場合に対して、「声をかける」という行動が、ロボット100の行動として定められている。 Specifically, the robot 100 has reaction rules for determining the behavior of the robot 100 based on the emotions of the user 10, the emotions of the robot 100, and the behavior of the user 10. For example, the reaction rules define the behavior of the robot 100 as "laughing" when the behavior of the user 10 is "laughing". The reaction rules also define the behavior of the robot 100 as "apologizing" when the behavior of the user 10 is "angry". The reaction rules also define the behavior of the robot 100 as "answering" when the behavior of the user 10 is "asking a question". The reaction rules also define the behavior of the robot 100 as "calling out" when the behavior of the user 10 is "sad".

ロボット100は、反応ルールに基づいて、ユーザ10の行動が「怒る」であると認識した場合、反応ルールで定められた「謝る」という行動を、ロボット100が実行する行動として選択する。例えば、ロボット100は、「謝る」という行動を選択した場合に、「謝る」動作を行うと共に、「謝る」言葉を表す音声を出力する。 When the robot 100 recognizes that the behavior of the user 10 is "angry" based on the reaction rules, the robot 100 selects the behavior of "apologizing" defined in the reaction rules as the behavior to be executed by the robot 100. For example, when the robot 100 selects the behavior of "apologizing", the robot 100 performs the motion of "apologizing" and outputs a voice expressing the words "apologize".

また、ロボット100の感情が「普通」(すなわち、「喜」=0、「怒」=0、「哀」=0、「楽」=0)であり、ユーザ10の状態が「1人、寂しそう」という条件が満たされた場合に、ロボット100の感情が「心配になる」という感情の変化内容と、「声をかける」の行動を実行できることが定められている。 In addition, when the emotion of the robot 100 is "normal" (i.e., "happy" = 0, "anger" = 0, "sad" = 0, "happy" = 0) and the condition that the state of the user 10 is "alone and looks lonely" is satisfied, it is defined that the emotion of the robot 100 will change to "worried" and that the robot 100 will be able to execute the action of "calling out."

ロボット100は、反応ルールに基づいて、ロボット100の現在の感情が「普通」であり、かつ、ユーザ10が1人で寂しそうな状態にあると認識した場合、ロボット100の「哀」の感情値を増大させる。また、ロボット100は、反応ルールで定められた「声をかける」という行動を、ユーザ10に対して実行する行動として選択する。例えば、ロボット100は、「声をかける」という行動を選択した場合に、心配していることを表す「どうしたの?」という言葉を、心配そうな音声に変換して出力する。 When the robot 100 recognizes based on the reaction rules that the current emotion of the robot 100 is "normal" and that the user 10 is alone and seems lonely, the robot 100 increases the emotion value of "sadness" of the robot 100. In addition, the robot 100 selects the action of "calling out" defined in the reaction rules as the action to be performed toward the user 10. For example, when the robot 100 selects the action of "calling out", it converts the words "What's wrong?", which express concern, into a worried voice and outputs it.

また、ロボット100は、この行動によって、ユーザ10からポジティブな反応が得られたことを示すユーザ反応情報を、サーバ300に送信する。ユーザ反応情報には、例えば、「怒る」というユーザ行動、「謝る」というロボット100の行動、ユーザ10の反応がポジティブであったこと、及びユーザ10の属性が含まれる。 The robot 100 also transmits to the server 300 user reaction information indicating that this action has elicited a positive reaction from the user 10. The user reaction information includes, for example, the user action of "getting angry," the robot 100 action of "apologizing," the fact that the user 10's reaction was positive, and the attributes of the user 10.

サーバ300は、ロボット100から受信したユーザ反応情報を記憶する。なお、サーバ300は、ロボット100だけでなく、ロボット101及びロボット102のそれぞれからもユーザ反応情報を受信して記憶する。そして、サーバ300は、ロボット100、ロボット101及びロボット102からのユーザ反応情報を解析して、反応ルールを更新する。 The server 300 stores the user reaction information received from the robot 100. The server 300 receives and stores user reaction information not only from the robot 100, but also from each of the robots 101 and 102. The server 300 then analyzes the user reaction information from the robots 100, 101, and 102, and updates the reaction rules.

ロボット100は、更新された反応ルールをサーバ300に問い合わせることにより、更新された反応ルールをサーバ300から受信する。ロボット100は、更新された反応ルールを、ロボット100が記憶している反応ルールに組み込む。これにより、ロボット100は、ロボット101やロボット102等が獲得した反応ルールを、自身の反応ルールに組み込むことができる。 The robot 100 receives the updated reaction rules from the server 300 by inquiring about the updated reaction rules from the server 300. The robot 100 incorporates the updated reaction rules into the reaction rules stored in the robot 100. This allows the robot 100 to incorporate the reaction rules acquired by the robot 101, the robot 102, etc. into its own reaction rules.

図2は、ロボット100の機能構成を概略的に示す。ロボット100は、センサ部200と、センサモジュール部210と、格納部220と、ユーザ状態認識部230と、感情決定部232と、行動認識部234と、行動決定部236と、記憶制御部238と、行動制御部250と、制御対象252と、通信処理部280と、を有する。 Figure 2 shows a schematic functional configuration of the robot 100. The robot 100 has a sensor unit 200, a sensor module unit 210, a storage unit 220, a user state recognition unit 230, an emotion determination unit 232, a behavior recognition unit 234, a behavior determination unit 236, a memory control unit 238, a behavior control unit 250, a control target 252, and a communication processing unit 280.

制御対象252は、表示装置、スピーカ及び目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット100の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット100の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット100の目部のLEDの発光状態を制御することによっても、ロボット100の表情を表現できる。なお、ロボット100の姿勢、仕草及び表情は、ロボット100の態度の一例である。 The controlled object 252 includes a display device, a speaker, LEDs in the eyes, and motors for driving the arms, hands, legs, etc. The posture and gestures of the robot 100 are controlled by controlling the motors of the arms, hands, legs, etc. Some of the emotions of the robot 100 can be expressed by controlling these motors. In addition, the facial expressions of the robot 100 can also be expressed by controlling the light emission state of the LEDs in the eyes of the robot 100. The posture, gestures, and facial expressions of the robot 100 are examples of the attitude of the robot 100.

センサ部200は、マイク201と、3D深度センサ202と、2Dカメラ203と、距離センサ204とを含む。マイク201は、音声を連続的に検出して音声データを出力する。なお、マイク201は、ロボット100の頭部に設けられ、バイノーラル録音を行う機能を有してよい。3D深度センサ202は、赤外線パターンを連続的に照射して、赤外線カメラで連続的に撮影された赤外線画像から赤外線パターンを解析することによって、物体の輪郭を検出する。2Dカメラ203は、イメージセンサの一例である。2Dカメラ203は、可視光によって撮影して、可視光の映像情報を生成する。距離センサ204は、例えばレーザや超音波等を照射して物体までの距離を検出する。なお、センサ部200は、この他にも、時計、ジャイロセンサ、タッチセンサ、モータフィードバック用のセンサ等を含んでよい。 The sensor unit 200 includes a microphone 201, a 3D depth sensor 202, a 2D camera 203, and a distance sensor 204. The microphone 201 continuously detects sound and outputs sound data. The microphone 201 may be provided on the head of the robot 100 and may have a function of performing binaural recording. The 3D depth sensor 202 detects the contour of an object by continuously irradiating an infrared pattern and analyzing the infrared pattern from infrared images continuously captured by the infrared camera. The 2D camera 203 is an example of an image sensor. The 2D camera 203 captures images using visible light and generates visible light video information. The distance sensor 204 detects the distance to an object by irradiating, for example, a laser or ultrasonic waves. The sensor unit 200 may also include a clock, a gyro sensor, a touch sensor, a sensor for motor feedback, and the like.

なお、図2に示すロボット100の構成要素のうち、制御対象252及びセンサ部200を除く構成要素は、ロボット100が有する行動制御システムが有する構成要素の一例である。ロボット100の行動制御システムは、制御対象252を制御の対象とする。 Note that, among the components of the robot 100 shown in FIG. 2, the components other than the control target 252 and the sensor unit 200 are examples of components of the behavior control system of the robot 100. The behavior control system of the robot 100 controls the control target 252.

格納部220は、反応ルール221及び履歴データ222を含む。履歴データ222は、ユーザ10の過去の感情値及び行動の履歴を含む。この感情値及び行動の履歴は、例えば、ユーザ10の識別情報に対応付けられることによって、ユーザ10毎に記録される。格納部220の少なくとも一部は、メモリ等の記憶媒体によって実装される。ユーザ10の顔画像、ユーザ10の属性情報等を格納する人物DBを含んでもよい。なお、図2に示すロボット100の構成要素のうち、制御対象252、センサ部200及び格納部220を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。 The storage unit 220 includes reaction rules 221 and history data 222. The history data 222 includes the user 10's past emotional values and behavioral history. The emotional values and behavioral history are recorded for each user 10, for example, by being associated with the user 10's identification information. At least a part of the storage unit 220 is implemented by a storage medium such as a memory. It may include a person DB that stores the face image of the user 10, the attribute information of the user 10, and the like. Note that the functions of the components of the robot 100 shown in FIG. 2, excluding the control target 252, the sensor unit 200, and the storage unit 220, can be realized by the CPU operating based on a program. For example, the functions of these components can be implemented as the operation of the CPU by the operating system (OS) and a program that operates on the OS.

センサモジュール部210は、音声感情認識部211と、発話理解部212と、表情認識部213と、顔認識部214とを含む。センサモジュール部210には、センサ部200で検出された情報が入力される。センサモジュール部210は、センサ部200で検出された情報を解析して、解析結果をユーザ状態認識部230に出力する。 The sensor module unit 210 includes a voice emotion recognition unit 211, a speech understanding unit 212, a facial expression recognition unit 213, and a face recognition unit 214. Information detected by the sensor unit 200 is input to the sensor module unit 210. The sensor module unit 210 analyzes the information detected by the sensor unit 200 and outputs the analysis result to the user state recognition unit 230.

センサモジュール部210の音声感情認識部211は、マイク201で検出されたユーザ10の音声を解析して、ユーザ10の感情を認識する。例えば、音声感情認識部211は、音声の周波数成分等の特徴量を抽出して、抽出した特徴量に基づいて、ユーザ10の感情を認識する。発話理解部212は、マイク201で検出されたユーザ10の音声を解析して、ユーザ10の発話内容を表す文字情報を出力する。 The voice emotion recognition unit 211 of the sensor module unit 210 analyzes the voice of the user 10 detected by the microphone 201 to recognize the emotion of the user 10. For example, the voice emotion recognition unit 211 extracts features such as frequency components of the voice, and recognizes the emotion of the user 10 based on the extracted features. The speech understanding unit 212 analyzes the voice of the user 10 detected by the microphone 201, and outputs text information representing the content of the user 10's utterance.

表情認識部213は、2Dカメラ203で撮影されたユーザ10の画像から、ユーザ10の表情及びユーザ10の感情を認識する。例えば、表情認識部213は、目及び口の形状、位置関係等に基づいて、ユーザ10の表情及び感情を認識する。 The facial expression recognition unit 213 recognizes the facial expression and emotions of the user 10 from the image of the user 10 captured by the 2D camera 203. For example, the facial expression recognition unit 213 recognizes the facial expression and emotions of the user 10 based on the shape, positional relationship, etc. of the eyes and mouth.

顔認識部214は、ユーザ10の顔を認識する。顔認識部214は、人物DB(図示省略)に格納されている顔画像と、2Dカメラ203によって撮影されたユーザ10の顔画像とをマッチングすることによって、ユーザ10を認識する。 The face recognition unit 214 recognizes the face of the user 10. The face recognition unit 214 recognizes the user 10 by matching a face image stored in a person DB (not shown) with a face image of the user 10 captured by the 2D camera 203.

ユーザ状態認識部230は、センサモジュール部210で解析された情報に基づいて、ユーザ10の状態を認識する。例えば、センサモジュール部210の解析結果を用いて、主として知覚に関する処理を行う。例えば、「パパが1人です。」、「パパが笑顔でない確率90%です。」等の知覚情報を生成する。生成された知覚情報の意味を理解する処理を行う。例えば、「パパが1人、寂しそうです。」等の意味情報を生成する。 The user state recognition unit 230 recognizes the state of the user 10 based on the information analyzed by the sensor module unit 210. For example, it mainly performs processing related to perception using the analysis results of the sensor module unit 210. For example, it generates perceptual information such as "Daddy is alone" or "There is a 90% chance that Daddy is not smiling." It then performs processing to understand the meaning of the generated perceptual information. For example, it generates semantic information such as "Daddy is alone and looks lonely."

感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の感情を示す感情値を決定する。例えば、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態を、予め学習されたニューラルネットワークに入力し、ユーザ10の感情を示す感情値を取得する。 The emotion determination unit 232 determines an emotion value indicating the emotion of the user 10 based on the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230. For example, the information analyzed by the sensor module unit 210 and the recognized state of the user 10 are input to a pre-trained neural network to obtain an emotion value indicating the emotion of the user 10.

ここで、ユーザ10の感情を示す感情値とは、ユーザの感情の正負を示す値であり、例えば、ユーザの感情が、「喜」、「楽」、「快」、「安心」、「興奮」、「安堵」、及び「充実感」のように、快感や安らぎを伴う明るい感情であれば、正の値を示し、明るい感情であるほど、大きい値となる。ユーザの感情が、「怒」、「哀」、「不快」、「不安」、「悲しみ」、「心配」、及び「虚無感」のように、嫌な気持ちになってしまう感情であれば、負の値を示し、嫌な気持ちであるほど、負の値の絶対値が大きくなる。ユーザの感情が、上記の何れでもない場合(「普通」)、0の値を示す。 Here, the emotion value indicating the emotion of user 10 is a value indicating the positive or negative emotion of the user. For example, if the user's emotion is a cheerful emotion accompanied by a sense of pleasure or comfort, such as "joy," "pleasure," "comfort," "relief," "excitement," "relief," and "fulfillment," the value is positive, and the more cheerful the emotion, the larger the value. If the user's emotion is an unpleasant emotion, such as "anger," "sorrow," "discomfort," "anxiety," "sorrow," "worry," and "emptiness," the value is negative, and the more unpleasant the emotion, the larger the absolute value of the negative value. If the user's emotion is none of the above ("normal"), the value is 0.

また、感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ロボット100の感情を示す感情値を決定する。 In addition, the emotion determination unit 232 determines an emotion value indicating the emotion of the robot 100 based on the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230.

ロボット100の感情値は、複数の感情分類の各々に対する感情値を含み、例えば、「喜」、「怒」、「哀」、「楽」それぞれの強さを示す値(0~5)である。 The emotion value of the robot 100 includes emotion values for each of a number of emotion categories, and is, for example, a value (0 to 5) indicating the strength of each of the emotions "joy," "anger," "sorrow," and "happiness."

具体的には、感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に対応付けて定められた、ロボット100の感情値を更新するルールに従って、ロボット100の感情を示す感情値を決定する。 Specifically, the emotion determination unit 232 determines an emotion value indicating the emotion of the robot 100 according to rules for updating the emotion value of the robot 100 that are determined in association with the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230.

例えば、感情決定部232は、ユーザ状態認識部230によってユーザ10が寂しそうと認識された場合、ロボット100の「哀」の感情値を増大させる。また、ユーザ状態認識部230によってユーザ10が笑顔になったと認識された場合、ロボット100の「喜」の感情値を増大させる。 For example, if the user state recognition unit 230 recognizes that the user 10 looks lonely, the emotion determination unit 232 increases the emotion value of "sadness" of the robot 100. Also, if the user state recognition unit 230 recognizes that the user 10 is smiling, the emotion determination unit 232 increases the emotion value of "happy" of the robot 100.

なお、感情決定部232は、ロボット100の状態を更に考慮して、ロボット100の感情を示す感情値を決定してもよい。例えば、ロボット100のバッテリー残量が少ない場合やロボット100の周辺環境が真っ暗な場合等に、ロボット100の「哀」の感情値を増大させてもよい。更にバッテリー残量が少ないにも関わらず継続して話しかけてくるユーザ10の場合は、「怒」の感情値を増大させても良い。 The emotion determination unit 232 may determine the emotion value indicating the emotion of the robot 100 by further considering the state of the robot 100. For example, when the battery level of the robot 100 is low or when the surrounding environment of the robot 100 is completely dark, the emotion value of "sadness" of the robot 100 may be increased. Furthermore, when the user 10 continues to talk to the robot 100 despite the battery level being low, the emotion value of "anger" may be increased.

行動認識部234は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の行動を認識する。例えば、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態を、予め学習されたニューラルネットワークに入力し、予め定められた複数の行動分類(例えば、「笑う」、「怒る」、「質問する」、「悲しむ」)の各々の確率を取得し、最も確率の高い行動分類を、ユーザ10の行動として認識する。 The behavior recognition unit 234 recognizes the behavior of the user 10 based on the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230. For example, the information analyzed by the sensor module unit 210 and the recognized state of the user 10 are input to a pre-trained neural network, the probability of each of a number of predetermined behavioral categories (e.g., "laughing," "anger," "asking a question," "sad") is obtained, and the behavioral category with the highest probability is recognized as the behavior of the user 10.

以上のように、本実施形態では、ロボット100は、ユーザ10を特定したうえでユーザ10の発話内容を取得するが、当該発話内容の取得と利用等に際してはユーザ10から法令に従った必要な同意を取得するほか、本実施形態に係るロボット100の行動制御システムは、ユーザ10の個人情報及びプライバシーの保護に配慮する。 As described above, in this embodiment, the robot 100 identifies the user 10 and acquires the contents of the user's utterance. When acquiring and using the contents of the utterance, the robot 100 obtains the necessary consent in accordance with laws and regulations from the user 10, and the behavior control system of the robot 100 according to this embodiment takes into consideration the protection of the personal information and privacy of the user 10.

行動決定部236は、感情決定部232により決定されたユーザ10の現在の感情値と、ユーザ10の現在の感情値が決定されるよりも前に感情決定部232により決定された過去の感情値の履歴データ222と、ロボット100の感情値とに基づいて、行動認識部234によって認識されたユーザ10の行動に対応する行動を決定する。本実施形態では、行動決定部236は、ユーザ10の過去の感情値として、履歴データ222に含まれる直近の1つの感情値を用いる場合について説明するが、開示の技術はこの態様に限定されない。例えば、行動決定部236は、ユーザ10の過去の感情値として、直近の複数の感情値を用いてもよいし、一日前などの単位期間の分だけ前の感情値を用いてもよい。また、行動決定部236は、ロボット100の現在の感情値だけでなく、ロボット100の過去の感情値の履歴を更に考慮して、ユーザ10の行動に対応する行動を決定してもよい。行動決定部236が決定する行動は、ロボット100が行うジェスチャー又はロボット100の発話内容を含む。 The behavior determination unit 236 determines an action corresponding to the behavior of the user 10 recognized by the behavior recognition unit 234 based on the current emotion value of the user 10 determined by the emotion determination unit 232, the history data 222 of past emotion values determined by the emotion determination unit 232 before the current emotion value of the user 10 was determined, and the emotion value of the robot 100. In this embodiment, the behavior determination unit 236 uses one most recent emotion value included in the history data 222 as the past emotion value of the user 10, but the disclosed technology is not limited to this aspect. For example, the behavior determination unit 236 may use the most recent multiple emotion values as the past emotion value of the user 10, or may use an emotion value from a unit period ago, such as one day ago. In addition, the behavior determination unit 236 may determine an action corresponding to the behavior of the user 10 by further considering not only the current emotion value of the robot 100 but also the history of the past emotion values of the robot 100. The behavior determined by the behavior determination unit 236 includes gestures performed by the robot 100 or the contents of speech by the robot 100.

本実施形態に係る行動決定部236は、ユーザ10の行動に対応する行動として、ユーザ10の過去の感情値と現在の感情値の組み合わせと、ロボット100の感情値と、ユーザ10の行動と、反応ルール221とに基づいて、ロボット100の行動を決定する。例えば、行動決定部236は、ユーザ10の過去の感情値が正の値であり、かつ現在の感情値が負の値である場合、ユーザ10の行動に対応する行動として、ユーザ10の感情値を正に変化させるための行動を決定する。 The behavior decision unit 236 according to this embodiment decides the behavior of the robot 100 as the behavior corresponding to the behavior of the user 10, based on a combination of the past and current emotion values of the user 10, the emotion value of the robot 100, the behavior of the user 10, and the reaction rules 221. For example, when the past emotion value of the user 10 is a positive value and the current emotion value is a negative value, the behavior decision unit 236 decides the behavior for changing the emotion value of the user 10 to a positive value as the behavior corresponding to the behavior of the user 10.

反応ルール221には、ユーザ10の過去の感情値と現在の感情値の組み合わせと、ロボット100の感情値と、ユーザ10の行動とに応じたロボット100の行動が定められている。例えば、ユーザ10の過去の感情値が正の値であり、かつ現在の感情値が負の値であり、ユーザ10の行動が悲しむである場合、ロボット100の行動として、ジェスチャーを交えてユーザ10を励ます問いかけを行う際のジェスチャーと発話内容との組み合わせが定められている。 The reaction rules 221 define the behavior of the robot 100 according to a combination of the past and current emotion values of the user 10, the emotion value of the robot 100, and the behavior of the user 10. For example, when the past emotion value of the user 10 is a positive value and the current emotion value is a negative value, and the behavior of the user 10 is sad, a combination of gestures and speech content when asking a question to encourage the user 10 with gestures is defined as the behavior of the robot 100.

例えば、反応ルール221には、ロボット100の感情値のパターン(「喜」、「怒」、「哀」、「楽」の値「0」~「5」の6値の4乗である1296パターン)、ユーザ10の過去の感情値と現在の感情値の組み合わせのパターン、ユーザ10の行動パターンの全組み合わせに対して、ロボット100の行動が定められる。すなわち、ロボット100の感情値のパターン毎に、ユーザ10の過去の感情値と現在の感情値の組み合わせが、負の値と負の値、負の値と正の値、正の値と負の値、正の値と正の値、負の値と普通、及び普通と普通等のように、複数の組み合わせのそれぞれに対して、ユーザ10の行動パターンに応じたロボット100の行動が定められる。なお、行動決定部236は、例えば、ユーザ10が「この前に話したあの話題について話したい」というような過去の話題から継続した会話を意図する発話を行った場合に、履歴データ222を用いてロボット100の行動を決定する動作モードに遷移してもよい。 For example, the reaction rule 221 defines the behavior of the robot 100 for all combinations of patterns of the emotion values of the robot 100 (1296 patterns, which are the fourth power of six values of "joy", "anger", "sorrow", and "pleasure", from "0" to "5"); combination patterns of the past emotion values and the current emotion values of the user 10; and behavior patterns of the user 10. That is, for each pattern of the emotion values of the robot 100, behavior of the robot 100 is defined according to the behavior patterns of the user 10 for each of a plurality of combinations of the past emotion values and the current emotion values of the user 10, such as negative values and negative values, negative values and positive values, positive values and negative values, positive values and positive values, negative values and normal values, and normal values and normal values. Note that the behavior determination unit 236 may transition to an operation mode that determines the behavior of the robot 100 using the history data 222, for example, when the user 10 makes an utterance intending to continue a conversation from a past topic, such as "I want to talk about that topic we talked about last time."

なお、反応ルール221には、ロボット100の感情値のパターン(1296パターン)の各々に対して、最大で一つずつ、ロボット100の行動としてジェスチャー及び発言内容の少なくとも一方が定められていてもよい。あるいは、反応ルール221には、ロボット100の感情値のパターンのグループの各々に対して、ロボット100の行動としてジェスチャー及び発言内容の少なくとも一方が定められていてもよい。 The reaction rules 221 may define at least one of a gesture and a statement as the behavior of the robot 100 for each of the patterns (1296 patterns) of the emotion value of the robot 100. Alternatively, the reaction rules 221 may define at least one of a gesture and a statement as the behavior of the robot 100 for each group of patterns of the emotion value of the robot 100.

反応ルール221に定められているロボット100の行動に含まれる各ジェスチャーには、当該ジェスチャーの強度が予め定められている。反応ルール221に定められているロボット100の行動に含まれる各発話内容には、当該発話内容の強度が予め定められている。 For each gesture included in the behavior of the robot 100 defined in the reaction rules 221, the strength of the gesture is predefined. For each utterance content included in the behavior of the robot 100 defined in the reaction rules 221, the strength of the utterance content is predefined.

記憶制御部238は、行動決定部236によって決定された行動に対して予め定められた行動の強度と、感情決定部232により決定されたロボット100の感情値とに基づいて、ユーザ10の行動を含むデータを履歴データ222に記憶するか否かを決定する。 The memory control unit 238 determines whether or not to store data including the behavior of the user 10 in the history data 222 based on the predetermined behavior strength for the behavior determined by the behavior determination unit 236 and the emotion value of the robot 100 determined by the emotion determination unit 232.

具体的には、ロボット100の複数の感情分類の各々に対する感情値の総和と、行動決定部236によって決定された行動が含むジェスチャーに対して予め定められた強度と、行動決定部236によって決定された行動が含む発話内容に対して予め定められた強度との和である強度の総合値が、閾値以上である場合、ユーザ10の行動を含むデータを履歴データ222に記憶すると決定する。 Specifically, if the total intensity value, which is the sum of the emotion values for each of the multiple emotion classifications of the robot 100, the predetermined intensity for the gesture included in the behavior determined by the behavior determination unit 236, and the predetermined intensity for the speech content included in the behavior determined by the behavior determination unit 236, is equal to or greater than a threshold value, it is determined that data including the behavior of the user 10 is to be stored in the history data 222.

記憶制御部238は、ユーザ10の行動を含むデータを履歴データ222に記憶すると決定した場合、行動決定部236によって決定された行動と、現時点から一定期間前までの、センサモジュール部210で解析された情報(例えば、その場の音声、画像、匂い等のデータなどのあらゆる周辺情報)、及びユーザ状態認識部230によって認識されたユーザ10の状態(例えば、ユーザ10の表情、感情など)を、履歴データ222に記憶する。 When the memory control unit 238 decides to store data including the behavior of the user 10 in the history data 222, it stores in the history data 222 the behavior determined by the behavior determination unit 236, information analyzed by the sensor module unit 210 from the present time up to a certain period of time ago (e.g., all surrounding information such as data on the sound, images, smells, etc. of the scene), and the state of the user 10 recognized by the user state recognition unit 230 (e.g., the facial expression, emotions, etc. of the user 10).

行動制御部250は、行動決定部236が決定した行動に基づいて、制御対象252を制御する。例えば、行動制御部250は、行動決定部236が発話することを含む行動を決定した場合に、制御対象252に含まれるスピーカから音声を出力させる。このとき、行動制御部250は、ロボット100の感情値に基づいて、音声の発声速度を決定してもよい。例えば、行動制御部250は、ロボット100の感情値が大きいほど、速い発声速度を決定する。このように、行動制御部250は、感情決定部232が決定した感情値に基づいて、行動決定部236が決定した行動の実行形態を決定する。 The behavior control unit 250 controls the control target 252 based on the behavior determined by the behavior determination unit 236. For example, when the behavior determination unit 236 determines an behavior including speaking, the behavior control unit 250 outputs a sound from a speaker included in the control target 252. At this time, the behavior control unit 250 may determine the speaking speed of the sound based on the emotion value of the robot 100. For example, the behavior control unit 250 determines a faster speaking speed as the emotion value of the robot 100 increases. In this way, the behavior control unit 250 determines the execution form of the behavior determined by the behavior determination unit 236 based on the emotion value determined by the emotion determination unit 232.

行動制御部250は、行動決定部236が決定した行動を実行したことに対するユーザ10の感情の変化を認識してもよい。例えば、ユーザ10の音声や表情に基づいて感情の変化を認識してよい。その他、センサ部200に含まれるタッチセンサで衝撃が検出されたことに基づいて、ユーザ10の感情の変化を認識してよい。センサ部200に含まれるタッチセンサで衝撃が検出された場合に、ユーザ10の感情が悪くなったと認識したり、センサ部200に含まれるタッチセンサの検出結果から、ユーザ10の反応が笑っている、あるいは、喜んでいる等と判断される場合には、ユーザ10の感情が良くなったと認識したりしてもよい。ユーザ10の反応を示す情報は、通信処理部280に出力される。 The behavior control unit 250 may recognize a change in the user 10's emotions in response to the execution of the behavior determined by the behavior determination unit 236. For example, the change in emotions may be recognized based on the voice or facial expression of the user 10. Alternatively, the change in emotions may be recognized based on the detection of an impact by a touch sensor included in the sensor unit 200. If an impact is detected by the touch sensor included in the sensor unit 200, the user 10's emotions may be recognized as having worsened, and if the detection result of the touch sensor included in the sensor unit 200 indicates that the user 10 is smiling or happy, the user 10's emotions may be recognized as having improved. Information indicating the user 10's reaction is output to the communication processing unit 280.

また、行動制御部250は、行動決定部236が決定した行動をロボット100の感情に応じて決定した実行形態で実行した後、感情決定部232は、当該行動が実行されたことに対するユーザの反応に基づいて、ロボット100の感情値を更に変化させる。具体的には、感情決定部232は、行動決定部236が決定した行動を行動制御部250が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良でなかった場合に、ロボット100の「喜」の感情値を増大させるまた、感情決定部232は、行動決定部236が決定した行動を行動制御部250が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良であった場合に、ロボット100の「哀」の感情値を増大させる。 In addition, after the behavior control unit 250 executes the behavior determined by the behavior determination unit 236 in the execution form determined according to the emotion of the robot 100, the emotion determination unit 232 further changes the emotion value of the robot 100 based on the user's reaction to the execution of the behavior. Specifically, the emotion determination unit 232 increases the emotion value of "happiness" of the robot 100 when the user's reaction to the behavior determined by the behavior determination unit 236 being performed on the user in the execution form determined by the behavior control unit 250 is not bad. In addition, the emotion determination unit 232 increases the emotion value of "sadness" of the robot 100 when the user's reaction to the behavior determined by the behavior determination unit 236 being performed on the user in the execution form determined by the behavior control unit 250 is bad.

更に、行動制御部250は、決定したロボット100の感情値に基づいて、ロボット100の感情を表現する。例えば、行動制御部250は、ロボット100の「喜」の感情値を増加させた場合、制御対象252を制御して、ロボット100に喜んだ仕草を行わせる。また、行動制御部250は、ロボット100の「哀」の感情値を増加させた場合、ロボット100の姿勢がうなだれた姿勢になるように、制御対象252を制御する。 Furthermore, the behavior control unit 250 expresses the emotion of the robot 100 based on the determined emotion value of the robot 100. For example, when the behavior control unit 250 increases the emotion value of "happiness" of the robot 100, it controls the control object 252 to make the robot 100 perform a happy gesture. When the behavior control unit 250 increases the emotion value of "sadness" of the robot 100, it controls the control object 252 to make the robot 100 assume a droopy posture.

通信処理部280は、サーバ300との通信を担う。上述したように、通信処理部280は、ユーザ反応情報をサーバ300に送信する。また、通信処理部280は、更新された反応ルールをサーバ300から受信する。通信処理部280がサーバ300から、更新された反応ルールを受信すると、反応ルール221を更新する。 The communication processing unit 280 is responsible for communication with the server 300. As described above, the communication processing unit 280 transmits user reaction information to the server 300. In addition, the communication processing unit 280 receives updated reaction rules from the server 300. When the communication processing unit 280 receives updated reaction rules from the server 300, it updates the reaction rules 221.

サーバ300は、ロボット100、ロボット101及びロボット102とサーバ300との間の通信を行い、ロボット100から送信されたユーザ反応情報を受信し、ポジティブな反応が得られた行動を含む反応ルールに基づいて、反応ルールを更新する。 The server 300 communicates between the robots 100, 101, and 102 and the server 300, receives user reaction information sent from the robot 100, and updates the reaction rules based on reaction rules that include actions that have received positive reactions.

図3は、ロボット100において行動を決定する動作に関する動作フローの一例を概略的に示す。図3に示す動作フローは、繰り返し実行される。このとき、センサモジュール部210で解析された情報が入力されているものとする。なお、動作フロー中の「S」は、実行されるステップを表す。 Figure 3 shows an example of an outline of an operation flow relating to the operation of determining an action in the robot 100. The operation flow shown in Figure 3 is executed repeatedly. At this time, it is assumed that information analyzed by the sensor module unit 210 is input. Note that "S" in the operation flow indicates the step that is executed.

まず、ステップS100において、ユーザ状態認識部230は、センサモジュール部210で解析された情報に基づいて、ユーザ10の状態を認識する。 First, in step S100, the user state recognition unit 230 recognizes the state of the user 10 based on the information analyzed by the sensor module unit 210.

ステップS102において、感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の感情を示す感情値を決定する。 In step S102, the emotion determination unit 232 determines an emotion value indicating the emotion of the user 10 based on the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230.

ステップS103において、感情決定部232は、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ロボット100の感情を示す感情値を決定する。感情決定部232は、決定したユーザ10の感情値を履歴データ222に追加する。 In step S103, the emotion determination unit 232 determines an emotion value indicating the emotion of the robot 100 based on the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230. The emotion determination unit 232 adds the determined emotion value of the user 10 to the history data 222.

ステップS104において、行動認識部234は、センサモジュール部210で解析された情報及びユーザ状態認識部230によって認識されたユーザ10の状態に基づいて、ユーザ10の行動分類を認識する。 In step S104, the behavior recognition unit 234 recognizes the behavior classification of the user 10 based on the information analyzed by the sensor module unit 210 and the state of the user 10 recognized by the user state recognition unit 230.

ステップS106において、行動決定部236は、ステップS102で決定されたユーザ10の現在の感情値及び履歴データ222に含まれる過去の感情値の組み合わせと、ロボット100の感情値と、行動認識部234によって認識されたユーザ10の行動と、反応ルール221とに基づいて、ロボット100の行動を決定する。 In step S106, the behavior decision unit 236 decides the behavior of the robot 100 based on a combination of the current emotion value of the user 10 determined in step S102 and the past emotion values included in the history data 222, the emotion value of the robot 100, the behavior of the user 10 recognized by the behavior recognition unit 234, and the reaction rules 221.

ステップS108において、行動制御部250は、行動決定部236により決定された行動に基づいて、制御対象252を制御する。 In step S108, the behavior control unit 250 controls the control object 252 based on the behavior determined by the behavior determination unit 236.

ステップS110において、記憶制御部238は、行動決定部236によって決定された行動に対して予め定められた行動の強度と、感情決定部232により決定されたロボット100の感情値とに基づいて、強度の総合値を算出する。 In step S110, the memory control unit 238 calculates a total intensity value based on the predetermined action intensity for the action determined by the action determination unit 236 and the emotion value of the robot 100 determined by the emotion determination unit 232.

ステップS112において、記憶制御部238は、強度の総合値が閾値以上であるか否かを判定する。強度の総合値が閾値未満である場合には、ユーザ10の行動を含むデータを履歴データ222に記憶せずに、当該処理を終了する。一方、強度の総合値が閾値以上である場合には、ステップS114へ移行する。 In step S112, the storage control unit 238 determines whether the total intensity value is equal to or greater than the threshold value. If the total intensity value is less than the threshold value, the process ends without storing data including the behavior of the user 10 in the history data 222. On the other hand, if the total intensity value is equal to or greater than the threshold value, the process proceeds to step S114.

ステップS114において、行動決定部236によって決定された行動と、現時点から一定期間前までの、センサモジュール部210で解析された情報、及びユーザ状態認識部230によって認識されたユーザ10の状態と、を、履歴データ222に記憶する。 In step S114, the behavior determined by the behavior determination unit 236, the information analyzed by the sensor module unit 210 from the present time up to a certain period of time ago, and the state of the user 10 recognized by the user state recognition unit 230 are stored in the history data 222.

以上説明したように、ロボット100によれば、ユーザ状態に基づいて、ロボット100の感情を示す感情値を決定し、ロボット100の感情値に基づいて、ユーザ10の行動を含むデータを履歴データ222に記憶するか否かを決定する。これにより、ユーザ10の行動を含むデータを記憶する履歴データ222の容量を抑制することができる。そして例えば、10年後にユーザ状態が10年前と同じ状態であるとロボット100が判断したときに、10年前の履歴データ222を読み込むことにより、ロボット100は10年前当時のユーザ10の状態(例えばユーザ10の表情、感情など)、更にはその場の音声、画像、匂い等のデータなどのあらゆる周辺情報を、ユーザ10に提示することができる。 As described above, according to the robot 100, an emotion value indicating the emotion of the robot 100 is determined based on the user state, and whether or not to store data including the behavior of the user 10 in the history data 222 is determined based on the emotion value of the robot 100. This makes it possible to reduce the capacity of the history data 222 that stores data including the behavior of the user 10. For example, when the robot 100 determines that the user state 10 years from now is the same as that 10 years ago, the robot 100 can present to the user 10 all kinds of peripheral information, such as the state of the user 10 10 years ago (e.g., the facial expression, emotions, etc. of the user 10), and data on the sound, image, smell, etc. of the location.

また、ロボット100によれば、ユーザ10の行動に対して適切な行動をロボット100に実行させることができる。従来は、ユーザの行動を分類し、ロボットの表情や恰好を含む行動を決めていた。これに対し、ロボット100は、ユーザ10の現在の感情値を決定し、過去の感情値及び現在の感情値に基づいてユーザ10に対して行動を実行する。従って、例えば、昨日は元気であったユーザ10が今日は落ち込んでいた場合に、ロボット100は「昨日は元気だったのに今日はどうしたの?」というような発話を行うことができる。また、ロボット100は、ジェスチャーを交えて発話を行うこともできる。また、例えば、昨日は落ち込んでいたユーザ10が今日は元気である場合に、ロボット100は、「昨日は落ち込んでいたのに今日は元気そうだね?」というような発話を行うことができる。また、例えば、昨日は元気であったユーザ10が今日は昨日よりも元気である場合、ロボット100は「今日は昨日よりも元気だね。昨日よりも良いことがあった?」というような発話を行うことができる。また、例えば、ロボット100は、感情値が0以上であり、かつ感情値の変動幅が一定の範囲内である状態が継続しているユーザ10に対しては、「最近、気分が安定していて良い感じだね。」というような発話を行うことができる。 According to the robot 100, the robot 100 can be made to perform an appropriate action in response to the action of the user 10. Conventionally, the user's actions were classified and the action including the robot's facial expression and appearance was determined. In contrast, the robot 100 determines the current emotional value of the user 10 and performs an action on the user 10 based on the past emotional value and the current emotional value. Therefore, for example, if the user 10 who was cheerful yesterday is depressed today, the robot 100 can make an utterance such as "You were cheerful yesterday, but what's wrong with you today?" The robot 100 can also make an utterance with gestures. For example, if the user 10 who was depressed yesterday is cheerful today, the robot 100 can make an utterance such as "You were depressed yesterday, but you look cheerful today, don't you?" For example, if the user 10 who was cheerful yesterday is more cheerful today than yesterday, the robot 100 can make an utterance such as "You're more cheerful today than yesterday. Has something better happened than yesterday?" Furthermore, for example, the robot 100 can say to a user 10 whose emotion value is equal to or greater than 0 and whose emotion value fluctuation range continues to be within a certain range, "You've been feeling stable lately, which is good."

また、例えば、ロボット100は、ユーザ10に対し、「昨日言っていた宿題はできた?」と質問し、ユーザ10から「できたよ」という回答が得られた場合、「偉いね!」等の肯定的な発話をするとともに、拍手又はサムズアップ等の肯定的なジェスチャーを行うことができる。また、例えば、ロボット100は、ユーザ10が「一昨日話したプレゼンテーションがうまくいったよ」という発話をすると、「頑張ったね!」等の肯定的な発話をするとともに、上記の肯定的なジェスチャーを行うこともできる。このように、ロボット100がユーザ10の状態の履歴に基づいた行動を行うことによって、ユーザ10がロボット100に対して親近感を覚えることが期待できる。 For example, the robot 100 can ask the user 10, "Did you finish the homework I told you about yesterday?", and if the user 10 responds, "I did it," it can utter a positive utterance such as "Great!" and make a positive gesture such as clapping or a thumbs up. For example, when the user 10 utters, "The presentation you gave the day before yesterday went well," the robot 100 can utter a positive utterance such as "You did a great job!" and make the above-mentioned positive gesture. In this way, the robot 100 can be expected to make the user 10 feel a sense of closeness to the robot 100 by performing actions based on the state history of the user 10.

上記実施形態では、ロボット100は、ユーザ10の顔画像を用いてユーザ10を認識する場合について説明したが、開示の技術はこの態様に限定されない。例えば、ロボット100は、ユーザ10が発する音声、ユーザ10のメールアドレス、ユーザ10のSNSのID又はユーザ10が所持する無線ICタグが内蔵されたIDカード等を用いてユーザ10を認識してもよい。 In the above embodiment, the robot 100 recognizes the user 10 using a facial image of the user 10, but the disclosed technology is not limited to this aspect. For example, the robot 100 may recognize the user 10 using a voice emitted by the user 10, an email address of the user 10, an SNS ID of the user 10, or an ID card with a built-in wireless IC tag that the user 10 possesses.

なお、ロボット100は、行動制御システムを備える電子機器の一例である。行動制御システムの適用対象は、ロボット100に限られず、様々な電子機器に行動制御システムを適用できる。また、サーバ300の機能は、1以上のコンピュータによって実装されてよい。サーバ300の少なくとも一部の機能は、仮想マシンによって実装されてよい。また、サーバ300の機能の少なくとも一部は、クラウドで実装されてよい。 The robot 100 is an example of an electronic device equipped with a behavior control system. The application of the behavior control system is not limited to the robot 100, and the behavior control system can be applied to various electronic devices. Furthermore, the functions of the server 300 may be implemented by one or more computers. At least some of the functions of the server 300 may be implemented by a virtual machine. Furthermore, at least some of the functions of the server 300 may be implemented in the cloud.

図4は、ロボット100及びサーバ300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 Figure 4 shows an example of a hardware configuration of a computer 1200 functioning as the robot 100 and the server 300. A program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of an apparatus according to the present embodiment, or to execute operations or one or more "parts" associated with an apparatus according to the present embodiment, and/or to execute a process or steps of the process according to the present embodiment. Such a program can be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to this embodiment includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are connected to each other by a host controller 1210. The computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive 1226, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220. The DVD drive 1226 may be a DVD-ROM drive, a DVD-RAM drive, or the like. The storage device 1224 may be a hard disk drive, a solid state drive, or the like. The computer 1200 also includes a ROM 1230 and a legacy input/output unit such as a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via a network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The DVD drive 1226 reads programs or data from a DVD-ROM 1227 or the like and provides them to the storage device 1224. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein a boot program or the like executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200. I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.

プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM 1227 or an IC card. The programs are read from the computer-readable storage medium, installed in the storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by the CPU 1212. The information processing described in these programs is read by the computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information according to the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 1200 and an external device, CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program. Under the control of CPU 1212, communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, DVD-ROM 1227, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, DVD drive 1226 (DVD-ROM 1227), IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored in the recording medium and may undergo information processing. The CPU 1212 may perform various types of processing on the data read from the RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and writes back the results to the RAM 1214. The CPU 1212 may also search for information in a file, database, etc. in the recording medium. For example, when multiple entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The above-described programs or software modules may be stored in a computer-readable storage medium on the computer 1200 or in the vicinity of the computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.

本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in this embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. The dedicated circuitry may include digital and/or analog hardware circuits and may include integrated circuits (ICs) and/or discrete circuits. The programmable circuitry may include reconfigurable hardware circuits including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs) and programmable logic arrays (PLAs).

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk, JAVA, C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or the programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in that order.

(その他の実施形態) (Other embodiments)

その他の実施形態として、上記のロボット100を、電化製品、コンピュータ、自動車、バイクに搭載されたロボットに適用してもよい。また、ロボット100を、ぬいぐるみに搭載してもよいし、ぬいぐるみに搭載された制御対象機器(スピーカ、カメラ、マイク)に無線又は有線で接続された制御装置に適用してもよい。その他の実施形態は、具体的には、以下のように構成される。例えば、ロボット100をユーザ10と日常を過ごしながら、当該ユーザ10と対話を含む出来事を基に、絵日記Pを作成する共同生活者(具体的には、図7に示すぬいぐるみ100N)に適用してもよい。また、本実施形態では、動物型のぬいぐるみであるが、ぬいぐるみは、動物型に限定されず、他のキャラクタであってもよい。 In other embodiments, the robot 100 may be applied to a robot mounted on an electrical appliance, a computer, an automobile, or a motorcycle. The robot 100 may also be mounted on a stuffed toy, or may be applied to a control device connected wirelessly or by wire to a controlled device (speaker, camera, microphone) mounted on the stuffed toy. Specifically, other embodiments are configured as follows. For example, the robot 100 may be applied to a cohabitant (specifically, stuffed toy 100N shown in FIG. 7) that creates a picture diary P based on events that include conversations with the user 10 while spending daily life with the user 10. In addition, in this embodiment, the stuffed toy is an animal-shaped stuffed toy, but the stuffed toy is not limited to an animal-shaped stuffed toy and may be another character.

図7に示すように、ぬいぐるみ100Nは、本実施形態(その他の実施形態)では、外観が柔らかい布製の生地で覆われた熊の形状である。そして、図示しないが、その内方に形成された空間部には、入出力デバイスとして、耳54に相当する部分にセンサ部200のマイク201(図2参照)が配置され、目56に相当する部分にセンサ部200の2Dカメラ203が配置され(図2参照)、及び、口58に相当する部分に制御対象252(図2参照)の一部を構成するスピーカが配置されている。なお、マイク201及びスピーカ60は、必ずしも別体である必要はなく、一体型のユニットであってもよい。ユニットの場合は、ぬいぐるみ100Nの鼻の位置なと、発話が自然に聞こえる位置に配置するとよい。 As shown in FIG. 7, in this embodiment (and other embodiments), the stuffed animal 100N has the shape of a bear covered in soft cloth fabric. Although not shown, in the space formed inside, input/output devices include a microphone 201 (see FIG. 2) of the sensor unit 200 arranged in the part corresponding to the ear 54, a 2D camera 203 (see FIG. 2) of the sensor unit 200 arranged in the part corresponding to the eye 56, and a speaker constituting part of the control target 252 (see FIG. 2) arranged in the part corresponding to the mouth 58. The microphone 201 and the speaker 60 do not necessarily need to be separate bodies, and may be an integrated unit. In the case of a unit, it is recommended to place them in a position where speech can be heard naturally, such as at the nose of the stuffed animal 100N.

また、ロボット100は、例えば、子供であるユーザ10との対話を含む出来事を記憶する。具体的には、格納部220に、マイク201や2Dカメラ203で取得した一日の出来事を格納する。なお、出来事としては、ユーザ10の過去の感情値及び行動の履歴が格納された履歴データ222を、出来事データとして用いてもよい。そして、一日の終わりなどのタイミングで格納している出来事から予め定められた場面を選択し、選択した当該場面をテキスト化する。ここで、テキスト化される場面は、感情決定部232により決定されたユーザの感情又はロボットの感情が予め定められた選択基準を満たした場面を選択する。選択基準は、ユーザ10の感情及びロボット100の感情が最も強いこと、又はユーザ10の感情若しくはロボット100の感情について、複数種類の感情のうちの特定の感情、例えば「喜」が最も強いこと、ユーザの笑顔が最も多いことを含む。例えば、履歴データ222に基づいて、ユーザ10の感情値及びロボット100の感情値の和が最も強い場面を選択し、選択した場面において履歴データ222に格納されたユーザ10の行動を取得し、取得したユーザ10の行動を表すテキストを、画像生成モデルに入力する。そして、例えば、当該場面が動物園に出かけている場面である場合は、「テディベアとユーザが動物園に出かけた」などとテキスト化する。また、行動決定部236は、ユーザ10を表す画像を事前に受け付けておき、当該画像のユーザを表すテキスト、及び選択した場面を表すテキストを、画像生成モデルに入力して、画面を表す画像を生成する。ユーザを表すテキストは、出来事を撮影した画像データから、特にユーザの着ていた服や容姿などのユーザの外観をテキスト化されたものであり、絵日記Pの絵P1に登場する人物をユーザに近づけるようにしている。例えば、ユーザが着ている服が青いTシャツである場合は、「青いTシャツを着ている」などとテキスト化する。 The robot 100 also stores events including dialogue with the user 10, who is, for example, a child. Specifically, the storage unit 220 stores events of the day captured by the microphone 201 and the 2D camera 203. Note that, as the events, the history data 222 in which the user 10's past emotion values and behavior history are stored may be used as the event data. Then, at a timing such as the end of the day, a predetermined scene is selected from the stored events, and the selected scene is converted into text. Here, the scene to be converted into text is selected from a scene in which the emotion of the user or the emotion of the robot determined by the emotion determination unit 232 satisfies a predetermined selection criterion. The selection criterion includes the strongest emotion of the user 10 and the strongest emotion of the robot 100, or the strongest emotion of a specific emotion among multiple emotions, such as "joy," or the most frequent smiles of the user, for the emotion of the user 10 or the emotion of the robot 100. For example, based on the history data 222, the scene where the sum of the emotion value of the user 10 and the emotion value of the robot 100 is the strongest is selected, the behavior of the user 10 stored in the history data 222 in the selected scene is acquired, and the text representing the acquired behavior of the user 10 is input to the image generation model. Then, for example, if the scene is a scene of going to the zoo, the text is converted to "The teddy bear and the user went to the zoo". In addition, the behavior determination unit 236 accepts an image representing the user 10 in advance, inputs the text representing the user of the image and the text representing the selected scene to the image generation model, and generates an image representing the screen. The text representing the user is a text that is a representation of the user's appearance, particularly the clothes and appearance of the user, from the image data of the event, and is made to resemble the user. For example, if the user is wearing a blue T-shirt, the text is converted to "The user is wearing a blue T-shirt".

また、ロボット100は、テキスト化した場面について、予め設定された画像生成AIにより、絵日記Pを作成させる。画像生成AIは、例えばDALL・E 2(インターネット検索<URL: https://openai.com/product/dall-e-2>)に開示される通り公知であるため、その詳細な説明を省略する。ここで、画像生成AIは、画像生成モデルの一例である。また、画像生成AIは、格納部220に、格納されている場合の他、ロボット100とネットワークで接続された他の装置に記憶されていてもよい。 The robot 100 also uses a preset image generation AI to create a picture diary P for the textualized scenes. The image generation AI is publicly known, for example as disclosed in DALL-E 2 (Internet search <URL: https://openai.com/product/dall-e-2>), so a detailed description is omitted. Here, the image generation AI is an example of an image generation model. The image generation AI may be stored in the storage unit 220 or in another device connected to the robot 100 via a network.

具体的には、ロボット100が、ユーザを表すテキスト、及び選択した当該場面を表すテキストを、画像生成モデルに入力して、場面を表す画像を生成する。例えば、「動物園でのテディベアとユーザのクレヨン画の絵日記を描いて」などを画像生成AIに入力して、場面を表す画像として、絵日記Pの絵P1を作成する。また、文章生成モデルに、「動物園でのテディベアとの出来事を日記にして」などと入力して、絵日記PのタイトルP2、文章P3などを作成する。図8に、画像生成AIと文章生成モデルが作成した絵日記Pの一例を示す。図8に示すように、画像生成AIが絵P1を作成し、文章生成モデルがタイトルP2と、文章P3を作成する。そして、ロボット100が、絵P1、タイトルP2及び文章P3を組み合わせた絵日記Pを作成する。また、画像生成AIが作成する絵P1と、文章生成モデルが作成するタイトルP2と文章P3は、複数パターン作成され、ユーザに指定可能にしてもよい。また、タイトルP2と文章P3は、文章生成モデルが作成したものに限定されず、ユーザ10が入力したものであってもよい。 Specifically, the robot 100 inputs text representing the user and text representing the selected scene into the image generation model to generate an image representing the scene. For example, "Draw a picture diary of the user's crayon drawing of a teddy bear at the zoo" is input to the image generation AI to create a picture P1 of the picture diary P as an image representing the scene. Also, "Write a diary about the events with the teddy bear at the zoo" is input to the text generation model to create a title P2, text P3, etc. of the picture diary P. FIG. 8 shows an example of a picture diary P created by the image generation AI and the text generation model. As shown in FIG. 8, the image generation AI creates a picture P1, and the text generation model creates a title P2 and text P3. Then, the robot 100 creates a picture diary P that combines the picture P1, the title P2, and the text P3. Also, the picture P1 created by the image generation AI and the title P2 and text P3 created by the text generation model may be created in multiple patterns and made selectable by the user. Furthermore, the title P2 and the sentence P3 are not limited to those created by the sentence generation model, but may be input by the user 10.

そして、ロボット100は、作成した絵日記Pを出力、例えば、ユーザ10を含む予め定められた者にメールなどで送信する。また、予め定められた者としては、ユーザ10の両親や遠くに住む祖父母などが好適である。 The robot 100 then outputs the created picture diary P and transmits it, for example, by email to a predetermined person, including the user 10. Predetermined people would preferably be the user 10's parents or grandparents who live far away.

また、本実施形態(他の実施形態)では、熊のぬいぐるみ100Nを例示したが、他の動物でもよいし、人形であってもよい。また、表皮を着せ替え可能でもよい。さらに、表皮の材質は、布製の生地に限らず、ソフトビニール製等、他の材質でもよいが、柔らかい材質であることが好ましい。 In addition, in this embodiment (other embodiments), a teddy bear 100N is exemplified, but it may be another animal or a doll. The skin may also be removable. Furthermore, the material of the skin is not limited to cloth, but may be other materials such as soft vinyl, although a soft material is preferable.

また、ぬいぐるみ100Nの表皮にディスプレイを取り付けて、ユーザ10に視覚を通じて情報を提供する制御対象252を追加してもよい。例えば、腹部にディスプレイを備え、絵日記Pを表示してもよい。また、目56をプロジェクターとして、壁面に絵日記Pを投影してもよい。また、カレンダー機能に絵日記Pを関連付けて、カレンダー機能で日付を選択すると、当該日付の絵日記Pが表示されるようにしてもよい。 A display may be attached to the skin of the stuffed animal 100N to add a control object 252 that provides visual information to the user 10. For example, a display may be provided on the abdomen to display the picture diary P. The eyes 56 may also function as a projector to project the picture diary P onto a wall. The picture diary P may also be associated with a calendar function so that when a date is selected with the calendar function, the picture diary P for that date is displayed.

ロボット100(外観が、ぬいぐるみ100Nであるロボット100を含む。)は、以下のステップ1~ステップ4により、絵日記Pを作成する処理を実行する。
(ステップ1)ロボット100は、ユーザ10の状態、ユーザ10の感情値、ロボット100の感情値、履歴データ222、出来事のデータを取得する。具体的には、上記ステップS100~S103と同様の処理を行い、ユーザ10の状態、ユーザ10の感情値、ロボット100の感情値、履歴データ222、出来事のデータを取得する。
The robot 100 (including the robot 100 having the appearance of a stuffed toy 100N) executes a process of creating a picture diary P through the following steps 1 to 4.
(Step 1) The robot 100 acquires the state of the user 10, the emotional value of the user 10, the emotional value of the robot 100, the history data 222, and event data. Specifically, the robot 100 performs the same processes as in steps S100 to S103 described above to acquire the state of the user 10, the emotional value of the user 10, the emotional value of the robot 100, the history data 222, and event data.

(ステップ2)ロボット100は、絵日記Pにする場面を選定する。
具体的には、行動決定部236は、一日の終わりに、履歴データ222に基づいて、一日の出来事を振り返り、絵日記Pにする場面を選定する。
(Step 2) The robot 100 selects a scene to be included in the picture diary P.
Specifically, at the end of each day, the behavior determining section 236 looks back on the events of the day based on the history data 222 and selects scenes to be included in the picture diary P.

(ステップ3)ロボット100は、絵日記Pを生成する。
具体的には、行動決定部236は、ステップ2で選択した場面をテキスト化する。例えば、テキスト「テディベアとユーザが動物園にいる」を得る。そして、かかるテキストに、「クレヨンで描いた絵日記」という固定文を追加して、画像生成AIに入力し、絵日記Pの絵P1を作成する。また、行動決定部236は、絵日記のタイトルと文章の指定をユーザ10から受け付け、絵日記PのタイトルP2と文章P3を取得する。行動決定部236は、絵日記Pの絵P1と、絵日記PのタイトルP2と文章P3を組み合わせて、絵日記Pを生成する。
(Step 3) The robot 100 generates the picture diary P.
Specifically, the behavior decision unit 236 converts the scene selected in step 2 into text. For example, the text "A teddy bear and the user are at the zoo" is obtained. A fixed sentence, "A picture diary drawn with crayons," is then added to this text and input to the image generation AI to create a picture P1 of the picture diary P. The behavior decision unit 236 also accepts designation of the title and text of the picture diary from the user 10, and obtains a title P2 and text P3 of the picture diary P. The behavior decision unit 236 generates the picture diary P by combining the picture P1 of the picture diary P with the title P2 and text P3 of the picture diary P.

(ステップ4)ロボット100は、生成した絵日記Pを、予め定められた者に出力する。 (Step 4) The robot 100 outputs the generated picture diary P to a predetermined person.

このように、ロボット100は、履歴データ222に基づいて、絵日記Pを作成する処理を実行することができる。 In this way, the robot 100 can execute the process of creating the picture diary P based on the history data 222.

なお、ロボット100は、絵日記Pを作成する際に使用した、画像生成モデルに入力するプロンプトを分析してユーザ10の趣味を含むユーザ10の情報を抽出して履歴データ222を更新してもよい。例えば、絵日記Pを作成する際には、履歴データ222に記憶されたユーザ10の行動を表すテキストを、画像生成モデルに入力するプロンプトとして生成するので、当該テキストを分析してユーザ10の情報を抽出して履歴データ222を更新する。そして、更新したユーザ10の情報に基づいて、ユーザ10に提案する内容を決定して提案してもよい。さらには、提案に必要な情報を取得し、ユーザ10に提供してもよい。 The robot 100 may analyze the prompts used when creating the picture diary P and input to the image generation model, extract information about the user 10 including the hobbies of the user 10, and update the history data 222. For example, when creating the picture diary P, text representing the actions of the user 10 stored in the history data 222 is generated as a prompt to be input to the image generation model, and the robot 100 may analyze the text, extract information about the user 10, and update the history data 222. Then, based on the updated information about the user 10, the robot 100 may decide and propose the content to the user 10. Furthermore, the robot 100 may obtain information necessary for the proposal and provide it to the user 10.

例えば、ロボット100は、いちごを笑顔で食べたことを絵日記Pにした場合、「いちごが好き」というユーザの情報を履歴データに記憶する。そして、いちご狩りの季節になったときに、ロボット100は、ユーザ10に対して「いちご狩りに行きませんか?」と提案する。さらに、ロボット100はウェブの情報を取得し、いちご狩りの日付や料金等の「いちご」に関連する関連情報をユーザに伝える。 For example, if the robot 100 writes in the picture diary P that the user ate strawberries with a smile, the robot 100 stores the user's information that "I like strawberries" in the history data. Then, when strawberry picking season arrives, the robot 100 suggests to the user 10, "Would you like to go strawberry picking?" Furthermore, the robot 100 obtains information from the web and conveys to the user relevant information related to "strawberries," such as the date and price of strawberry picking.

ここで、ロボット100が、絵日記Pを作成する際に生成したプロンプトを分析してユーザ10の趣味を含む情報を履歴データ222に更新する場合の具体的な処理について説明する。図9は、ロボット100が、絵日記Pを作成する際に生成したプロンプトを分析してユーザ10の趣味を含む情報を履歴データ222に更新する場合の具体的な処理の流れの一例を示すフローチャートである。なお、図9の処理は、ロボット100が絵日記Pを作成する際に、プロンプトを生成した場合に開始する。 Here, a specific process will be described when the robot 100 analyzes a prompt generated when creating the picture diary P and updates the information including the hobbies of the user 10 in the history data 222. FIG. 9 is a flowchart showing an example of a specific process flow when the robot 100 analyzes a prompt generated when creating the picture diary P and updates the information including the hobbies of the user 10 in the history data 222. Note that the process in FIG. 9 starts when the robot 100 generates a prompt when creating the picture diary P.

ステップS200において、行動決定部236は、絵日記P作成で使用したユーザ10の行動を表すテキストを取得する。 In step S200, the action decision unit 236 obtains text representing the action of the user 10 used in creating the picture diary P.

ステップS202において、行動決定部236は、取得したテキストを分析する。例えば、絵日記Pとして選定される場面は、ユーザ10及びロボット100の感情値が強い場面が選定されるので、絵日記Pを作成する際に使用したテキストに含まれる単語からユーザの趣味や好みのものなどを抽出する。例えば、趣味に関する単語を予め設定しておき、テキストから趣味に対応する単語を、趣味を含む情報として抽出する。 In step S202, the behavior decision unit 236 analyzes the acquired text. For example, the scenes selected for the picture diary P are those in which the emotional values of the user 10 and the robot 100 are strong, and so the user's hobbies and preferences are extracted from the words contained in the text used when creating the picture diary P. For example, words related to hobbies are set in advance, and words corresponding to hobbies are extracted from the text as information containing hobbies.

ステップS204において、行動決定部236は、ユーザ10の趣味を含む情報があるか否かを判定する。該判定は、例えば、テキストを分析した結果、趣味に関する単語が抽出されたか否かを判定する。該判定が否定された場合には処理を終了し、肯定された場合にはステップS206へ移行する。 In step S204, the action decision unit 236 determines whether there is information including the hobbies of the user 10. For example, this determination is made by determining whether words related to hobbies have been extracted as a result of analyzing the text. If the determination is negative, the process ends, and if the determination is positive, the process proceeds to step S206.

ステップS206では、行動決定部236が、ユーザ10の情報を更新する。例えば、抽出したユーザ10の趣味に関する情報で履歴データ222を更新する。これにより、趣味や、興味関心、行動、ライフスタイルなどのユーザ10の情報が更新されるので、行動制御部250によりユーザの趣味嗜好、トレンドに合わせた行動の提案が可能になる。 In step S206, the behavior decision unit 236 updates the information of the user 10. For example, the history data 222 is updated with the extracted information on the hobbies of the user 10. This updates the information of the user 10, such as hobbies, interests, actions, and lifestyle, making it possible for the behavior control unit 250 to suggest actions that match the user's hobbies, preferences, and trends.

次に、ロボット100が、ユーザ10に行動の提案を行う場合の具体的な処理について説明する。図10は、ロボット100が、ユーザ10に行動の提案を行う場合の具体的な処理の流れの一例を示すフローチャートである。図10の処理は、例えば、1日の終わり等の予め定めたタイミングに開始する。 Next, a specific process performed when the robot 100 suggests an action to the user 10 will be described. FIG. 10 is a flowchart showing an example of a specific process flow performed when the robot 100 suggests an action to the user 10. The process in FIG. 10 starts at a predetermined timing, such as the end of a day.

ステップS300において、行動決定部236は、履歴データ222を取得する。例えば、更新されたユーザ10の情報(ユーザ10の趣味に関する情報)を取得する。 In step S300, the behavior decision unit 236 acquires the history data 222. For example, updated information about the user 10 (information about the hobbies of the user 10) is acquired.

ステップS302において、行動決定部236は、履歴データ222を分析する。例えば、更新されたユーザ10の情報から趣味に対応する単語を抽出し、趣味に関する情報を収集する。具体的には、履歴データ222のユーザ10が「いちごが好き」というユーザ10の情報から、「いちご」に関連する関連情報(例えば、季節等)をウェブサイトから収集する。 In step S302, the behavior decision unit 236 analyzes the history data 222. For example, words corresponding to hobbies are extracted from the updated information of the user 10, and information related to hobbies is collected. Specifically, from the information of the user 10 in the history data 222 that the user 10 "likes strawberries," relevant information related to "strawberries" (for example, the season, etc.) is collected from a website.

ステップS304において、行動決定部236は、提案タイミングであるか否かを判定する。該判定は、関連情報の収集結果に基づいて、ユーザ10の情報に関して提案するタイミングであるか否かを判定する。例えば、ユーザ10が「いちごが好き」というユーザ10の情報が履歴データ222に存在する場合に、履歴データの分析で収集した関連情報に基づいて、「いちご狩り」の季節になったか否かを判定する。該判定が否定された場合にはそのまま処理を終了し、肯定された場合にはステップS304へ移行する。 In step S304, the action decision unit 236 judges whether it is time to make a suggestion. This judgement is made by judging whether it is time to make a suggestion regarding information of the user 10 based on the result of collection of related information. For example, if information of the user 10 that the user 10 "likes strawberries" exists in the history data 222, it is judged whether it is "strawberry picking" season based on the related information collected by analyzing the history data. If the judgement is negative, the process ends as it is, and if the judgement is positive, the process proceeds to step S304.

ステップS306において、行動決定部236は、収集した関連情報に基づいてユーザ10に提案を行う。例えば、行動決定部236は、文章生成モデルに「いちごに関する提案をして」などと入力して、「いちご」に関する提案を行う文書を作成する。これにより、行動制御部250がスピーカからの発話を制御することにより、ロボット100が、「いちご狩りにいきませんか?」等の提案を行う。 In step S306, the behavior decision unit 236 makes a suggestion to the user 10 based on the collected related information. For example, the behavior decision unit 236 inputs "Make a suggestion about strawberries" into the sentence generation model to create a document making a suggestion about "strawberries." As a result, the behavior control unit 250 controls the speech from the speaker, causing the robot 100 to make a suggestion such as "Would you like to go strawberry picking?".

ステップS308において、行動決定部236は、提案した行動に必要な関連情報を収集する。例えば、ウェブの情報を取得し、いちご狩りの日付や、料金、近くの場所等の関連情報を収集する。 In step S308, the behavior decision unit 236 collects relevant information necessary for the proposed behavior. For example, it obtains information from the web and collects relevant information such as the strawberry picking date, price, nearby locations, etc.

ステップS310において、行動決定部236は、収集した関連情報をユーザ10に提示する。例えば、行動制御部250が、行動決定部236が決定した行動に基づいて、ロボット100を制御することにより、ロボット100が、「近くのいちご農園で4月から料金が○○円でいちご狩りできるよ。」等の発話をする。或いは、行動決定部236は、通信処理部280を介して予め登録されたユーザ10の携帯電話に収集した情報を送信してもよい。 In step S310, the behavior decision unit 236 presents the collected related information to the user 10. For example, the behavior control unit 250 controls the robot 100 based on the behavior determined by the behavior decision unit 236, causing the robot 100 to say something like, "Starting in April, you can pick strawberries at a nearby strawberry farm for a fee of XX yen." Alternatively, the behavior decision unit 236 may transmit the collected information to a mobile phone of a pre-registered user 10 via the communication processing unit 280.

このように、ウェブ情報を提供することでリアルタイム性の高い情報をユーザ10に提供できる。 In this way, by providing web information, highly real-time information can be provided to the user 10.

また、絵日記P用に作成したプロンプトからユーザの趣味を把握するが、プロンプトはロボット100により作成されるため、自分が知らない趣味や特技がわかる。 The user's hobbies are also understood from the prompts created for the picture diary P, but because the prompts are created by the robot 100, the robot can learn about hobbies and special skills that it does not know about.

なお、絵日記P用に作成したプロンプトを分析することにより更新された、趣味を含むユーザ10の情報を用いて他のユーザとのマッチングを行ってもよい。例えば、SNS(Social Networking Service)と連携して趣味が近いもの同士がマッチングされるようにする。また、趣味以外にも履歴データ222に基づいて、興味関心や、行動、ライフスタイル等のユーザの価値観が近い者同士がマッチングされるようにしてもよい。例えば、プロンプトを分析することにより、アグレッシブな人同士をマッチングしたり、いちご好きな人同士をマッチングしたりする。 In addition, matching with other users may be performed using information about user 10, including hobbies, updated by analyzing the prompts created for the picture diary P. For example, by linking with a social networking service (SNS), users with similar hobbies may be matched. In addition to hobbies, users with similar values, such as interests, behavior, and lifestyles, may also be matched based on the history data 222. For example, aggressive people may be matched with each other, or people who like strawberries may be matched with each other by analyzing the prompts.

プロンプトとしてテキスト化される場面は、ユーザ10にプラスの感情が働いた場面であるため、ユーザ10の価値観が抽出されたものである。従って、絵日記P用に作成したプロンプトを分析することにより、ユーザの価値観を抽出することができる。 The scenes that are converted into text as prompts are scenes that evoke positive emotions in the user 10, and therefore the values of the user 10 are extracted. Therefore, by analyzing the prompts created for the picture diary P, the user's values can be extracted.

例えば、絵日記P用に作成したプロンプトを分析することにより、婚活、またはリクルートなどに利用できる。また、ユーザ10の価値観にあった広告を表示させることもできる。 For example, by analyzing the prompts created for the picture diary P, it can be used for matchmaking or recruitment. It is also possible to display advertisements that match the values of the user 10.

ここで、ロボット100が、絵日記P用に作成したプロンプトを分析することにより更新された、趣味を含むユーザ10の情報を用いて他のユーザとのマッチングを行う場合の具体的な処理について説明する。図11は、ロボット100が、絵日記P用に作成したプロンプトを分析することにより、趣味を含むユーザ10の情報を用いて他のユーザとのマッチングを行う場合の具体的な処理の流れの一例を示すフローチャートである。なお、図11の処理は、例えば、絵日記Pの作成時や、作成後などのタイミングで開始してもよい。或いは、ユーザ10が予め設定したタイミングで開始してもよいし、他のタイミングで開始してもよい。 Here, a specific process will be described when the robot 100 matches with other users using information about the user 10, including hobbies, updated by analyzing the prompts created for the picture diary P. FIG. 11 is a flowchart showing an example of a specific process flow when the robot 100 matches with other users using information about the user 10, including hobbies, by analyzing the prompts created for the picture diary P. Note that the process in FIG. 11 may be started, for example, when or after the picture diary P is created. Alternatively, it may be started at a timing preset by the user 10, or at another timing.

ステップS400において、行動決定部236は、履歴データ222を取得する。すなわち、絵日記P用に作成したプロンプトを分析することにより更新された履歴データに保存されたユーザ10の情報を取得する。 In step S400, the behavior decision unit 236 acquires the history data 222. That is, the behavior decision unit 236 acquires information about the user 10 stored in the updated history data by analyzing the prompts created for the picture diary P.

ステップS402において、行動決定部236は、ユーザ10の情報からユーザ10の価値観を抽出する。例えば、趣味、興味関心、行動、及びライフスタイルの少なくとも1つのユーザ10の価値観を履歴データ222に記憶されたユーザ10の情報から抽出する。 In step S402, the behavior decision unit 236 extracts the values of the user 10 from the information of the user 10. For example, at least one of the values of the user 10, including hobbies, interests, behaviors, and lifestyles, is extracted from the information of the user 10 stored in the history data 222.

ステップS404において、行動決定部236は、複数種類の価値観を抽出したか否かを判定する。該判定が肯定された場合にはステップS406へ移行し、否定された場合はステップS408へ移行する。 In step S404, the behavior decision unit 236 determines whether multiple types of values have been extracted. If the determination is positive, the process proceeds to step S406, and if the determination is negative, the process proceeds to step S408.

ステップS406において、行動決定部236は、1つの価値観に注目する。すなわち、抽出された複数種類のユーザ10の価値観の中から1つの価値観に注目する。 In step S406, the behavior decision unit 236 focuses on one value. That is, it focuses on one value from among the values of the multiple types of users 10 that have been extracted.

ステップS408において、行動決定部236は、ユーザ10の価値観に対応する価値観のSNS利用者を検索する。例えば、行動決定部236は、通信処理部280を介してウェブサイトにアクセスして、予め登録されたSNSの利用者の中から、ユーザ10の価値観に対応する価値観の利用者を検索する。 In step S408, the behavior decision unit 236 searches for SNS users whose values correspond to those of the user 10. For example, the behavior decision unit 236 accesses a website via the communication processing unit 280 and searches for users whose values correspond to those of the user 10 from among pre-registered SNS users.

ステップS410において、行動決定部236は、抽出したユーザ10の全ての価値観について検索が終了したか否かを判定する。該判定が否定された場合にはステップS412へ移行して、他の価値観に注目してステップS408に戻って上述の処理を繰り返す。一方、判定が肯定された場合にはステップS414へ移行する。 In step S410, the behavior decision unit 236 determines whether or not the search has been completed for all values of the extracted user 10. If the determination is negative, the process proceeds to step S412, where the process returns to step S408 and repeats the above-mentioned process while focusing on other values. On the other hand, if the determination is positive, the process proceeds to step S414.

ステップS414において、行動決定部236は、検索結果を出力して一連の処理を終了する。例えば、行動決定部236は、通信処理部280を介して予め登録されたユーザ10の携帯電話等に検索結果を出力してもよい。或いは、行動制御部250を介してロボット100を制御し、発話によって検索結果を出力してもよい。 In step S414, the behavior decision unit 236 outputs the search results and ends the series of processes. For example, the behavior decision unit 236 may output the search results to a mobile phone or the like of the user 10 that has been registered in advance via the communication processing unit 280. Alternatively, the behavior decision unit 236 may control the robot 100 via the behavior control unit 250 and output the search results by speech.

このように、絵日記P用のプロンプトを分析することにより、ユーザ10の価値観を抽出することができる。そして、抽出したユーザ10の価値観に対応する価値観のSNS利用者を検索するので、アグレッシブな人同士のマッチングや、いちご好きな人同士のマッチングなどが可能となる。 In this way, the values of user 10 can be extracted by analyzing the prompts for picture diary P. Then, a search is made for SNS users with values that correspond to the extracted values of user 10, making it possible to match aggressive people with each other, or people who like strawberries with each other, etc.

なお、感情決定部232は、特定のマッピングに従い、ユーザの感情を決定してよい。具体的には、感情決定部232は、特定のマッピングである感情マップ(図5参照)に従い、ユーザの感情を決定してよい。 In addition, the emotion determination unit 232 may determine the user's emotion according to a specific mapping. Specifically, the emotion determination unit 232 may determine the user's emotion according to an emotion map (see FIG. 5), which is a specific mapping.

図5は、複数の感情がマッピングされる感情マップ400を示す図である。感情マップ400において、感情は、中心から放射状に同心円に配置されている。同心円の中心に近いほど、原始的状態の感情が配置されている。同心円のより外側には、心境から生まれる状態や行動を表す感情が配置されている。感情とは、情動や心的状態も含む概念である。同心円の左側には、概して脳内で起きる反応から生成される感情が配置されている。同心円の右側には概して、状況判断で誘導される感情が配置されている。同心円の上方向及び下方向には、概して脳内で起きる反応から生成され、かつ、状況判断で誘導される感情が配置されている。また、同心円の上側には、「快」の感情が配置され、下側には、「不快」の感情が配置されている。このように、感情マップ400では、感情が生まれる構造に基づいて複数の感情がマッピングされており、同時に生じやすい感情が、近くにマッピングされている。 5 is a diagram showing an emotion map 400 on which multiple emotions are mapped. In the emotion map 400, emotions are arranged in concentric circles radiating from the center. The closer to the center of the concentric circles, the more primitive emotions are arranged. Emotions that represent states and actions arising from a state of mind are arranged on the outer side of the concentric circles. Emotions are a concept that includes emotions and mental states. On the left side of the concentric circles, emotions that are generally generated from reactions that occur in the brain are arranged. On the right side of the concentric circles, emotions that are generally induced by situational judgment are arranged. On the upper and lower sides of the concentric circles, emotions that are generally generated from reactions that occur in the brain and are induced by situational judgment are arranged. In addition, the emotion of "pleasure" is arranged on the upper side of the concentric circles, and the emotion of "discomfort" is arranged on the lower side. In this way, in the emotion map 400, multiple emotions are mapped based on the structure in which emotions are generated, and emotions that tend to occur simultaneously are mapped close to each other.

(1)例えばロボット100の感情決定部232である感情エンジンが、100msec程度で感情を検知している場合、ロボット100の反応動作(例えば相槌)の決定は、頻度が少なくとも、感情エンジンの検知頻度(100msec)と同様のタイミングに設定してよく、これよりも早いタイミングに設定してもよい。感情エンジンの検知頻度はサンプリングレートと解釈してよい。 (1) For example, if the emotion engine, which is the emotion determination unit 232 of the robot 100, detects emotions at approximately 100 msec, the frequency of the determination of the reaction action of the robot 100 (e.g., a backchannel) may be set to at least the same timing as the detection frequency of the emotion engine (100 msec), or may be set to an earlier timing. The detection frequency of the emotion engine may be interpreted as the sampling rate.

100msec程度で感情を検知し、即時に連動して反応動作(例えば相槌)を行うことで、不自然な相槌ではなくなり、自然な空気を読んだ対話を実現できる。ロボット100は感情マップ400の曼荼羅の方向性とその度合い(強さ)に応じて、反応動作(相槌など)を行う。なお、感情エンジンの検知頻度(サンプリングレート)は、100msに限定されず、シチュエーション(スポーツをしている場合など)、ユーザの年齢などに応じて、変更してもよい。 By detecting emotions in about 100 msec and immediately performing a corresponding reaction (e.g., a backchannel), unnatural backchannels can be avoided, and a natural dialogue that reads the atmosphere can be realized. The robot 100 performs a reaction (such as a backchannel) according to the directionality and the degree (strength) of the mandala in the emotion map 400. Note that the detection frequency (sampling rate) of the emotion engine is not limited to 100 ms, and may be changed according to the situation (e.g., when playing sports), the age of the user, etc.

(2)感情マップ400と照らし合わせ、感情の方向性とその度合いの強さを予め設定しておき、相槌の動き及び相槌の強弱を設定してよい。例えば、ロボット100が安定感、安心などを感じている場合、ロボット100は、頷いて話を聞き続ける。ロボット100が不安、迷い、怪しい感じを覚えている場合、ロボット100は、首をかしげてもよく、首振りを止めてもよい。 (2) The directionality of emotions and the strength of their intensity may be preset in reference to the emotion map 400, and the movement of the interjections and the strength of the interjections may be set. For example, if the robot 100 feels a sense of stability or security, the robot 100 may nod and continue listening. If the robot 100 feels anxious, confused, or suspicious, the robot 100 may tilt its head or stop shaking its head.

これらの感情は、感情マップ400の3時の方向に分布しており、普段は安心と不安のあたりを行き来する。感情マップ400の右半分では、内部的な感覚よりも状況認識の方が優位に立つため、落ち着いた印象になる。 These emotions are distributed in the three o'clock direction of emotion map 400, and usually fluctuate between relief and anxiety. In the right half of emotion map 400, situational awareness takes precedence over internal sensations, resulting in a sense of calm.

(3)ロボット100が褒められて快感を覚えた場合、「あー」というフィラーが台詞の前に入り、きつい言葉をもらって痛感を覚えた場合、「うっ!」というフィラーが台詞の前に入ってよい。また、ロボット100が「うっ!」と言いつつうずくまる仕草などの身体的な反応を含めてよい。これらの感情は、感情マップ400の9時あたりに分布している。 (3) If the robot 100 feels good after being praised, the filler "ah" may be inserted before the line, and if the robot 100 feels hurt after receiving harsh words, the filler "ugh!" may be inserted before the line. Also, a physical reaction such as the robot 100 crouching down while saying "ugh!" may be included. These emotions are distributed around 9 o'clock on the emotion map 400.

(4)感情マップ400の左半分では、状況認識よりも内部的な感覚(反応)の方が優位に立つ。よって、思わず反応してしまった印象を与え得る。 (4) In the left half of the emotion map 400, internal sensations (reactions) are more important than situational awareness. This can give the impression that the person is reacting unconsciously.

ロボット100が納得感という内部的な感覚(反応)を覚えながら状況認識においても好感を覚える場合、ロボット100は、相手を見ながら深く頷いてよく、また「うんうん」と発してよい。このように、ロボット100は、相手へのバランスのとれた好感、すなわち、相手への許容や寛容といった行動を生成してよい。このような感情は、感情マップ400の12時あたりに分布している。 When the robot 100 feels a favorable feeling in its situational awareness while also feeling an internal sensation (reaction) of satisfaction, the robot 100 may nod deeply while looking at the other person, or may say "uh-huh." In this way, the robot 100 may generate a behavior that shows a balanced favorable feeling toward the other person, that is, acceptance and tolerance toward the other person. Such emotions are distributed around 12 o'clock on the emotion map 400.

逆に、ロボット100が不快感という内部的な感覚(反応)を覚えながら状況認識においても、ロボット100は、嫌悪を覚えるときには首を横に振る、憎しみを覚えるくらいになると、目のLEDを赤くして相手を睨んでもよい。このような感情は、感情マップ400の6時あたりに分布している。 Conversely, even when the robot 100 is aware of a situation while experiencing an internal sensation (reaction) of discomfort, the robot 100 may shake its head when it feels disgust, or turn the eye LEDs red and glare at the other person when it feels hatred. These types of emotions are distributed around the 6 o'clock position on the emotion map 400.

(5)感情マップ400の内側は心の中、感情マップ400の外側は行動を表すため、感情マップ400の外側に行くほど、感情が目に見える(行動に表れる)ようになる。 (5) The inside of emotion map 400 represents what is going on inside one's mind, while the outside of emotion map 400 represents behavior, so the further out on emotion map 400 you go, the more visible the emotions become (the more they are expressed in behavior).

(6)感情マップ400の3時付近に分布する安心を覚えながら、人の話を聞く場合、ロボット100は、軽く首を縦に振って「ふんふん」と発する程度であるが、12時付近の愛の方になると、首を深く縦に振るような力強い頷きをしてよい。 (6) When listening to someone with a sense of relief, which is distributed around the 3 o'clock area of the emotion map 400, the robot 100 may lightly nod its head and say "hmm," but when it comes to love, which is distributed around 12 o'clock, it may nod vigorously, nodding its head deeply.

感情決定部232は、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、ユーザ10の感情を決定する。このニューラルネットワークは、センサモジュール部210で解析された情報、及び認識されたユーザ10の状態と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。また、このニューラルネットワークは、図6に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。図6では、「安心」、「安穏」、「心強い」という複数の感情が、近い感情値となる例を示している。 The emotion determination unit 232 inputs the information analyzed by the sensor module unit 210 and the recognized state of the user 10 into a pre-trained neural network, obtains emotion values indicating each emotion shown in the emotion map 400, and determines the emotion of the user 10. This neural network is pre-trained based on multiple learning data that are combinations of the information analyzed by the sensor module unit 210 and the recognized state of the user 10, and emotion values indicating each emotion shown in the emotion map 400. In addition, this neural network is trained so that emotions that are located close to each other have similar values, as in the emotion map 900 shown in Figure 6. Figure 6 shows an example in which multiple emotions, such as "peace of mind," "calm," and "reassuring," have similar emotion values.

また、感情決定部232は、特定のマッピングに従い、ロボット100の感情を決定してよい。具体的には、感情決定部232は、センサモジュール部210で解析された情報、ユーザ状態認識部230によって認識されたユーザ10の状態、及びロボット100の状態を、予め学習されたニューラルネットワークに入力し、感情マップ400に示す各感情を示す感情値を取得し、ロボット100の感情を決定する。このニューラルネットワークは、センサモジュール部210で解析された情報、認識されたユーザ10の状態、及びロボット100の状態と、感情マップ400に示す各感情を示す感情値との組み合わせである複数の学習データに基づいて予め学習されたものである。例えば、タッチセンサ(図示省略)の出力から、ロボット100がユーザ10になでられていると認識される場合に、「嬉しい」の感情値「3」となることを表す学習データや、加速度センサ(図示省略)の出力から、ロボット100がユーザ10に叩かれていると認識される場合に、「怒」の感情値「3」となることを表す学習データに基づいて、ニューラルネットワークが学習される。また、このニューラルネットワークは、図6に示す感情マップ900のように、近くに配置されている感情同士は、近い値を持つように学習される。 Furthermore, the emotion determination unit 232 may determine the emotion of the robot 100 according to a specific mapping. Specifically, the emotion determination unit 232 inputs the information analyzed by the sensor module unit 210, the state of the user 10 recognized by the user state recognition unit 230, and the state of the robot 100 into a pre-trained neural network, obtains emotion values indicating each emotion shown in the emotion map 400, and determines the emotion of the robot 100. This neural network is pre-trained based on multiple learning data that are combinations of the information analyzed by the sensor module unit 210, the recognized state of the user 10, and the state of the robot 100, and emotion values indicating each emotion shown in the emotion map 400. For example, the neural network is trained based on learning data that indicates that when the robot 100 is recognized as being stroked by the user 10 from the output of a touch sensor (not shown), the emotional value becomes "happy" at "3," and that when the robot 100 is recognized as being hit by the user 10 from the output of an acceleration sensor (not shown), the emotional value becomes "anger" at "3." Furthermore, this neural network is trained so that emotions that are located close to each other have similar values, as in the emotion map 900 shown in FIG. 6.

行動決定部236は、ユーザの行動と、ユーザの感情、ロボットの感情とを表すテキストに、ユーザの行動に対応するロボットの行動内容を質問するための固定文を追加して、対話機能を有する文章生成モデルに入力することにより、ロボットの行動内容を生成する。 The behavior decision unit 236 generates the robot's behavior by adding fixed sentences to the text representing the user's behavior, the user's emotions, and the robot's emotions, and inputting the results into a sentence generation model with a dialogue function.

例えば、行動決定部236は、感情決定部232によって決定されたロボット100の感情から、表1に示すような感情テーブルを用いて、ロボット100の状態を表すテキストを取得する。ここで、感情テーブルには、感情の種類毎に、各感情値に対してインデックス番号が付与されており、インデックス番号毎に、ロボット100の状態を表すテキストが格納されている。 For example, the behavior determination unit 236 obtains text representing the state of the robot 100 from the emotion of the robot 100 determined by the emotion determination unit 232, using an emotion table such as that shown in Table 1. Here, in the emotion table, an index number is assigned to each emotion value for each type of emotion, and text representing the state of the robot 100 is stored for each index number.

感情決定部232によって決定されたロボット100の感情が、インデックス番号「2」に対応する場合、「とても楽しい状態」というテキストが得られる。なお、ロボット100の感情が、複数のインデックス番号に対応する場合、ロボット100の状態を表すテキストが複数得られる。 When the emotion of the robot 100 determined by the emotion determination unit 232 corresponds to index number "2", the text "very happy state" is obtained. Note that when the emotion of the robot 100 corresponds to multiple index numbers, multiple pieces of text representing the state of the robot 100 are obtained.

また、ユーザ10の感情に対しても、表2に示すような感情テーブルを用意しておく。 In addition, an emotion table like that shown in Table 2 is prepared for the emotions of user 10.

ここで、ユーザの行動が、「絵日記を作成して」と話しかけるものであり、ロボット100の感情が、インデックス番号「2」であり、ユーザ10の感情が、インデックス番号「3」である場合には、「ロボットはとても楽しい状態です。ユーザは普通に楽しい状態です。ユーザに「絵日記を作成して」と話しかけられました。ロボットとして、どのように返事をしますか?」と文章生成モデルに入力し、ロボットの行動内容を取得する。行動決定部236は、この行動内容から、ロボットの行動を決定する。 Here, if the user's action is speaking "Create a picture diary," the emotion of the robot 100 is index number "2," and the emotion of the user 10 is index number "3," then the following is input to the sentence generation model: "The robot is in a very happy state. The user is in a normal happy state. The user spoke to the robot, saying, 'Create a picture diary.' How would you respond as the robot?", and the robot's action content is obtained. The action decision unit 236 decides on the robot's action from this action content.

このように、ロボット100は、ロボットの感情に応じたインデックス番号に応じて、ロボットの行動を変えることができるため、ユーザは、ロボットに心があるような印象を持ち、ロボットに対して話しかけるなどの行動をとることが促進される。 In this way, the robot 100 can change its behavior according to the index number that corresponds to the robot's emotions, so that the user gets the impression that the robot has a heart, and is encouraged to take actions such as talking to the robot.

また、行動決定部236は、ユーザの行動と、ユーザの感情、ロボットの感情とを表すテキストだけでなく、履歴データ222の内容を表すテキストも追加した上で、ユーザの行動に対応するロボットの行動内容を質問するための固定文を追加して、対話機能を有する文章生成モデルに入力することにより、ロボットの行動内容を生成するようにしてもよい。これにより、ロボット100は、ユーザの感情や行動を表す履歴データに応じて、ロボットの行動を変えることができるため、ユーザは、ロボットに個性があるような印象を持ち、ロボットに対して話しかけるなどの行動をとることが促進される。また、履歴データに、ロボットの感情や行動を更に含めるようにしてもよい。 Furthermore, the behavior decision unit 236 may generate the robot's behavior content by adding not only text representing the user's behavior, the user's emotions, and the robot's emotions, but also text representing the contents of the history data 222, adding a fixed sentence for asking about the robot's behavior content corresponding to the user's behavior, and inputting the result into a sentence generation model with a dialogue function. This allows the robot 100 to change its behavior according to the history data representing the user's emotions and behavior, so that the user has the impression that the robot has a personality, and is encouraged to take actions such as talking to the robot. The history data may also further include the robot's emotions and actions.

5 システム、10、11、12 ユーザ、20 通信網、100、101、102 ロボット、200 センサ部、201 マイク、202 深度センサ、203 カメラ、204 距離センサ、210 センサモジュール部、211 音声感情認識部、212 発話理解部、213 表情認識部、214 顔認識部、220 格納部、221 反応ルール、222 履歴データ、230 ユーザ状態認識部、232 感情決定部、234 行動認識部、236 行動決定部、238 記憶制御部、250 行動制御部、252 制御対象、280 通信処理部、300 サーバ、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222
通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ
5 System, 10, 11, 12 User, 20 Communication network, 100, 101, 102 Robot, 200 Sensor unit, 201 Microphone, 202 Depth sensor, 203 Camera, 204 Distance sensor, 210 Sensor module unit, 211 Voice emotion recognition unit, 212 Speech understanding unit, 213 Facial expression recognition unit, 214 Face recognition unit, 220 Storage unit, 221 Response rules, 222 History data, 230 User state recognition unit, 232 Emotion determination unit, 234 Behavior recognition unit, 236 Behavior determination unit, 238 Memory control unit, 250 Behavior control unit, 252 Control target, 280 Communication processing unit, 300 Server, 1200 Computer, 1210 Host controller, 1212 CPU, 1214 RAM, 1216 Graphic controller, 1218 Display device, 1220 Input/output controller, 1222
Communication interface, 1224 storage device, 1226 DVD drive, 1227 DVD-ROM, 1230 ROM, 1240 input/output chip

Claims (5)

ユーザの行動を含むユーザ状態を認識するユーザ状態認識部と、
ユーザの感情又はロボットの感情を判定する感情決定部と、
ユーザとロボットを対話させる対話機能を有する文章生成モデルに基づき、前記ユーザ状態と、ユーザの感情又はロボットの感情とに対応する前記ロボットの行動を決定する行動決定部と、を含み、
前記行動決定部は、前記ユーザの行動を含む履歴データに基づいて、予め定められた選択基準を満たす場面を選択し、選択した当該場面を表すテキストを、画像生成モデルに入力して、前記場面を表す画像を生成すると共に、前記テキストに基づいて、ユーザの趣味を含むユーザの情報を抽出し、抽出したユーザの情報に基づいて、ユーザに提案する内容を決定する行動制御システム。
A user state recognition unit that recognizes a user state including a user's behavior;
an emotion determining unit for determining an emotion of a user or an emotion of a robot;
a behavior determination unit that determines a behavior of the robot corresponding to the user state and the user's emotion or the robot's emotion based on a sentence generation model having an interaction function that allows a user and a robot to interact with each other;
The behavior determination unit selects a scene that satisfies predetermined selection criteria based on historical data including the user's behavior, inputs text representing the selected scene into an image generation model to generate an image representing the scene, and extracts user information including the user's hobbies based on the text, and determines content to be suggested to the user based on the extracted user information.
前記行動決定部は、抽出したユーザの情報に関連する関連情報を収集し、収集した前記関連情報を含めてユーザに提案する行動を決定する請求項1に記載の行動制御システム。 The behavior control system according to claim 1, wherein the behavior decision unit collects related information related to the extracted user information and decides the behavior to be proposed to the user, including the collected related information. 行動決定部が決定した行動に基づいて、前記ロボットに設けられたスピーカからの発話を制御することによりユーザに行動の提案を行う行動制御部を更に含む請求項1に記載の行動制御システム。 The behavior control system according to claim 1, further comprising a behavior control unit that suggests actions to the user by controlling speech from a speaker provided on the robot based on the behavior determined by the behavior determination unit. 前記行動決定部は、抽出したユーザの情報を前記履歴データに記憶し、前記行動制御部は、前記履歴データに記憶したユーザの情報に関連するタイミングにユーザに行動の提案を行う請求項3に記載の行動制御システム。 The behavior control system according to claim 3, wherein the behavior decision unit stores the extracted user information in the history data, and the behavior control unit suggests a behavior to the user at a timing related to the user information stored in the history data. 前記行動決定部は、抽出したユーザの情報を前記履歴データに記憶し、前記履歴データに記憶されたユーザの情報を用いて、他のユーザとのマッチングを行う請求項1に記載の行動制御システム。
2. The behavior control system according to claim 1, wherein the behavior determination unit stores the extracted user information in the history data, and performs matching with other users using the user information stored in the history data.
JP2024066851A 2023-04-18 2024-04-17 Behavior Control System Pending JP2024154417A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2023067894 2023-04-18
JP2023067894 2023-04-18
JP2023132390 2023-08-15
JP2023132390 2023-08-15

Publications (1)

Publication Number Publication Date
JP2024154417A true JP2024154417A (en) 2024-10-30

Family

ID=93258553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024066851A Pending JP2024154417A (en) 2023-04-18 2024-04-17 Behavior Control System

Country Status (1)

Country Link
JP (1) JP2024154417A (en)

Similar Documents

Publication Publication Date Title
JP2024153581A (en) Behavior Control System
JP2024154409A (en) Behavior Control System
JP2024154417A (en) Behavior Control System
JP2024154415A (en) Behavior Control System
JP2024154418A (en) Behavior Control System
JP2024154416A (en) Behavior Control System
JP2024159568A (en) Behavior Control System
WO2024219293A1 (en) Action control system
JP2024153592A (en) Behavior Control System
JP2024152712A (en) Behavior Control System
JP2024155844A (en) Behavior Control System
JP2024159561A (en) Behavior Control System
JP2024153588A (en) Behavior Control System
JP2024153582A (en) Behavior Control System
JP2024156632A (en) Behavior Control System
JP2024154411A (en) Behavior Control System
JP2024155823A (en) Behavior Control System
JP2024155842A (en) Behavior Control System
JP2024154412A (en) Behavior Control System
JP2024156637A (en) Behavior Control System
JP2024152707A (en) Behavior Control System
JP2024153593A (en) Action control system and program
JP2024154402A (en) Behavior Control System
JP2024154407A (en) Behavior Control System
JP2024155832A (en) Behavior Control System