[go: up one dir, main page]

JP2007011674A - Reason explanation service processing method and apparatus using dialog robot, and program thereof - Google Patents

Reason explanation service processing method and apparatus using dialog robot, and program thereof Download PDF

Info

Publication number
JP2007011674A
JP2007011674A JP2005191520A JP2005191520A JP2007011674A JP 2007011674 A JP2007011674 A JP 2007011674A JP 2005191520 A JP2005191520 A JP 2005191520A JP 2005191520 A JP2005191520 A JP 2005191520A JP 2007011674 A JP2007011674 A JP 2007011674A
Authority
JP
Japan
Prior art keywords
service
information
user
reason
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005191520A
Other languages
Japanese (ja)
Inventor
Junji Satake
純二 佐竹
Hirotada Ueda
博唯 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2005191520A priority Critical patent/JP2007011674A/en
Publication of JP2007011674A publication Critical patent/JP2007011674A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 自律的に生活支援サービスを実行するロボットシステムにおいて,サービスが実行された理由をユーザに説明する仕組みを提供する。
【解決手段】 推論システム11は,分散環境行動DB13に蓄積された環境情報および行動情報からユーザの状況を推論し,実行可能なサービスを選択し,選択したサービスをアプライアンス4で実行させ,サービス実行履歴情報をサービス履歴DB17に蓄積する。対話ロボット2の対話制御部23は,ユーザの音声から生成した発話情報の文脈を推論し,この発話を理由質問と判定した場合に,推論システム11に理由質問サービスの実行を要求する。推論システム11は,質問対象のサービスを特定し,その実行時の状況をもとに実行理由の説明を生成する。対話ロボット2は,実行理由説明から生成した音声データを発話する。
【選択図】 図2
PROBLEM TO BE SOLVED: To provide a mechanism for explaining to a user a reason why a service is executed in a robot system that autonomously executes a life support service.
An inference system 11 infers a user situation from environment information and behavior information stored in a distributed environment behavior DB 13, selects an executable service, causes the appliance 4 to execute the selected service, and executes the service. History information is accumulated in the service history DB 17. The dialogue control unit 23 of the dialogue robot 2 infers the context of the utterance information generated from the user's voice, and when the utterance is determined as the reason question, requests the reasoning system 11 to execute the reason question service. The inference system 11 identifies the question target service and generates an explanation of the execution reason based on the situation at the time of execution. The dialogue robot 2 utters the voice data generated from the explanation of the execution reason.
[Selection] Figure 2

Description

本発明は,ユーザの生活を支援するためにアプライアンスを自律的に制御する生活支援ロボットシステムと協働して,ユーザと音声による対話を行う対話ロボットを用いて,前記生活支援ロボットシステムで実行されるサービス提供の理由を説明する理由説明サービス処理方法に関する。   The present invention is implemented in the life support robot system using a dialog robot that performs voice conversation with the user in cooperation with a life support robot system that autonomously controls the appliance to support the life of the user. The present invention relates to a reason explanation service processing method for explaining a reason for providing a service.

ユビキタスな環境を背景にして,ユーザの居住空間などに設置されて自律的にユーザの生活を支援する生活支援ロボットシステムが実現されている。ユビキタスな環境を前提にした生活支援ロボットシステムは,ユーザが特に意識して操作する必要がないアンコンシャス型のシステムであることが多い。   With the background of ubiquitous environment, a life support robot system that is installed in a user's living space and autonomously supports the user's life has been realized. Life support robot systems based on a ubiquitous environment are often unconscious systems that do not require users to be particularly aware of the operation.

アンコンシャス型の生活支援ロボットシステムは,快適な環境の維持やユーザの活動支援のために,各種のセンサ情報にもとづいて環境やユーザの行動を推論し,ネットワークで接続されたアプライアンス(通信機能を備えた家電機器),情報端末装置などを制御して生活を支援するための種々のサービスを提供するものである。例えば,生活支援ロボットシステムは,センサ情報をもとにユーザの動作・姿勢,部屋の状況を分析してユーザがリラックスした状態であると推論すると,アプライアンスの一つであるオーディオシステムによってユーザの嗜好にあった音楽を流したり,または,エアコンによって室内の温湿度を維持したりして,ユーザがこれらのアプライアンスを意識的に操作することなく快適な生活環境を実現できるようにする(参照,非特許文献1)。
美濃導彦,「ゆかりプロジェクトの目的と概要――UKARIプロジェクト報告No.1」,情報処理学会 第66回全国大会,2004年
In order to maintain a comfortable environment and support user activities, the unconscious lifestyle support robot system infers the environment and user behavior based on various sensor information, and uses an appliance (communication function with a communication function). It provides various services for supporting life by controlling home appliances) and information terminal devices. For example, a life support robot system analyzes the user's movement / posture and room conditions based on sensor information and infers that the user is in a relaxed state. By playing music that is suitable for the environment or by maintaining the indoor temperature and humidity with an air conditioner, users can realize a comfortable living environment without consciously operating these appliances (see, non- Patent Document 1).
Mino Tetsuhiko, “Purpose and Outline of the Yukari Project—UKARI Project Report No. 1”, IPSJ 66th National Convention, 2004

ユビキタスな環境を利用するアンコンシャス型の生活支援ロボットシステムは,ユーザがアプライアンスを意識的に操作する必要がない点で便利である。しかし,生活支援ロボットシステムが自律的制御によって提供しているサービスが,常にユーザに受け入れられるとは限らないという事態が生ずることが予想される。   An unconscious life support robot system using a ubiquitous environment is convenient in that the user does not need to operate the appliance consciously. However, it is expected that the service provided by the life support robot system by autonomous control may not always be accepted by the user.

生活支援ロボットシステムが生活全般の支援を図るようになり,提供するサービスがより高度化・多機能化し,アプライアンスの動作原理も複雑化してくると考えられる。そのため,生活支援ロボットシステムの自律的制御だけでは,ユーザ個々の要求に対応しきれなくなる可能性がある。   The life support robot system will be able to support the whole of life, and the provided services will become more sophisticated and multifunctional, and the operating principle of the appliance will be complicated. For this reason, there is a possibility that it will not be possible to meet the individual requirements of the user with the autonomous control of the life support robot system alone.

また,アンコンシャスであること,すなわちユーザに意識的な操作を要求しないという生活支援ロボットシステムの仕組みは,システムの存在を認識しにくいものにするため,時にはユーザに気味悪さを感じさせる原因にもなりうる。例えば,生活支援ロボットシステムが自律的に実行するサービスが,あるユーザにとっては快適であっても,別のユーザにとっては不快なものとなるような状況や,実行されたサービスが,ユーザにとってはかえって迷惑であると考えるような状況などが生じることが予想される。このような場合に,ユーザは,違うサービスを実行してもらいたいと考えていたり,サービス実行の理由を知りたいという要求を持つので,生活支援ロボットシステムは,このような不満や疑問を解消する必要がある。   In addition, the mechanism of the life support robot system that is unconscious, that is, does not require conscious operation from the user, makes it difficult to recognize the existence of the system, which sometimes causes the user to feel weird. Can be. For example, a service that the life support robot system autonomously executes is comfortable for one user, but is uncomfortable for another user, and a service that is executed is rather different for the user. It is expected that a situation that seems to be annoying will occur. In such a case, the life support robot system eliminates such dissatisfaction and questions because the user wants to execute a different service or has a request to know the reason for the service execution. There is a need.

さらに,生活支援ロボットシステムが蓄積している情報以外の事柄についても,ユーザが知りたい場合がある。例えば,ユーザ自らがアプライアンスを操作したい場合に,アプライアンスそれぞれの高度化した機能を十分に使いこなして操作することができないような状況が生じることも予想される。このような場合に,ユーザは,生活支援ロボットシステムではカバーしていないような詳細な情報を知りたいと考えるので,対話ロボットにおいて,このような情報の提供をする必要がある。   Furthermore, there are cases where the user wants to know about matters other than the information stored in the life support robot system. For example, when the user himself / herself wants to operate the appliance, a situation may occur in which the sophisticated functions of each appliance cannot be fully used. In such a case, the user wants to know detailed information that is not covered by the life support robot system, so it is necessary to provide such information in the dialog robot.

このように,アンコンシャス型の生活支援ロボットシステムは,さまざまな状況にも柔軟に対応できるような普遍的なユーザインタフェースとして,高度な状況対応処理能力を備え,かつユーザに親近感を抱かせるような対話システムを備える必要がある。   In this way, the unconscious lifestyle support robot system is equipped with a high level of situation handling capability as a universal user interface that can flexibly handle various situations, and to make the user feel friendly. It is necessary to provide a simple dialogue system.

そのため,生活支援ロボットシステムのユーザインタフェースとして,ユーザの曖昧な要求をより正確に受け取ってシステムの制御に反映させ,またシステムの制御状況をより的確に理解してもらえるように,ユーザにとって生活支援のための有用なサービスや情報を提供できるような対話ロボット,および前記対話ロボットを用いた対話システムを実現している(参照,PCT/JP2004/002942)。   Therefore, as a user interface of the life support robot system, it is necessary for the user to support life support so that the user's ambiguous requests can be received more accurately and reflected in the control of the system, and the control status of the system can be understood more accurately. An interactive robot that can provide useful services and information for the user, and an interactive system using the interactive robot (see PCT / JP2004 / 002942).

このような生活支援ロボットシステムによって,さまざまな生活支援サービスが提供可能な状況になると,実行されるサービスの全てをユーザが把握しておくことは困難であり,なぜそのようなサービスが提供されるのかという理由を,ユーザに説明する仕組みが必要である。   When such a life support robot system can provide various life support services, it is difficult for the user to grasp all the services to be executed, and why such services are provided. A mechanism is needed to explain to the user why.

また,生活支援ロボットシステムが実際に提供したサービスの内容について,ユーザがどのように評価したのかを分析し,以降のサービスの実行に反映させることができる仕組みが必要である。   In addition, there is a need for a mechanism that can analyze how users evaluate the contents of services actually provided by the life support robot system and reflect them in the execution of subsequent services.

本発明は上記の必要性に鑑みてなされたものであり,その目的は,生活支援ロボットシステムが提供するサービスについて,ユーザがその実行の理由を質問した場合に,対話ロボットを通じて,その理由を説明することができる処理方法を提供することである。   The present invention has been made in view of the above-mentioned need, and its purpose is to explain the reason for the service provided by the life support robot system through the interactive robot when the user asks the reason for the execution. It is to provide a processing method that can be performed.

また,本発明の別の目的は,ユーザにサービス実行の理由を質問させて前記サービス実行の理由説明を行い,この理由説明に対するユーザの反応をもとに,実行したサービスに対するユーザの評価をフィードバックできる処理方法を提供することである。   Another object of the present invention is to ask the user the reason for service execution, explain the reason for the service execution, and feed back the user's evaluation of the executed service based on the user's reaction to the reason description. It is to provide a processing method that can be used.

本発明は,ユーザの生活支援のためのサービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御するサービスを提供する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記論理システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースとを備える生活支援ロボットシステム,ならびに前記生活支援ロボットシステムと協働する対話ロボットであって,音声データを音声認識処理して生成した発話情報をもとに発話の文脈を推論し,対話ロボット内で生成された発話情報を音声合成処理して生成した音声データを出力することによって,ユーザと音声対話する対話ロボットを備える対話システムにおいて,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する音声データを前記対話ロボットが発話する理由説明サービス処理方法であって,以下の処理過程を備える。   In order to autonomously control a plurality of appliances that execute services for supporting user's life, the present invention is based on sensor information measured in a predetermined space and the environment in the space and the user's behavior. An inference system that provides a service that controls the appliance by inferring the above, a distributed environment behavior database that accumulates environment information and behavior information as inference results by the inference system, and history information of services provided by the logical system A life support robot system having a service history information database to be accumulated, and a dialogue robot that cooperates with the life support robot system, and the context of the utterance is determined based on the utterance information generated by voice recognition processing of the voice data. Sound generated by inference and speech synthesis processing of speech information generated in the dialogue robot In a dialogue system including a dialogue robot that performs a voice dialogue with a user by outputting data, a speech explanation method for explaining the reason for execution of the service provided by the life support robot system is provided. The following processing steps are provided.

本発明は,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況を推論し,前記ユーザの状況にもとづいて前記ユーザに提供するサービスを選択する処理過程と,2)前記選択されたサービスを実行する制御情報を生成して対応するアプライアンスへ送信し,前記アプライアンスに当該サービスを実行させる処理過程と,3)前記サービスについて,前記サービスの実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,4)前記対話ロボットが前記ユーザの音声データを検出した場合に,前記音声データを音声認識処理してユーザ発話情報に変換する処理過程と,5)前記ユーザ発話情報の文脈を推論し,前記ユーザ発話情報が実行されたサービスの理由質問であると推論した場合に,前記ユーザ発話情報をもとに,前記サービス履歴情報データベースから前記質問の対象となるサービスを特定する処理過程と,6)前記特定したサービスのサービス履歴情報からサービス実行時の状況を取得し,前記状況をもとに前記サービス実行の理由説明を生成する処理過程と,7)前記理由説明を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを備えるものである。   The present invention includes 1) a process of inferring a user's situation from environmental information and action information stored in the distributed environment action database, and selecting a service to be provided to the user based on the user's situation; 2) A process of generating and transmitting control information for executing the selected service to the corresponding appliance, and causing the appliance to execute the service; and 3) including information regarding the status of the service at the time of execution of the service. A process of storing service history information in the service history information database; and 4) a process of converting the voice data into user utterance information by voice recognition processing when the interactive robot detects the voice data of the user. And 5) inferring the context of the user utterance information and executing the server on which the user utterance information is executed. And 6) a service history of the identified service based on the user utterance information, and a process of identifying the service that is the subject of the question, based on the user utterance information. A process of acquiring a service execution status from information and generating a description of the reason for executing the service based on the status; 7) voice data generated by voice synthesis processing of the reason description; And a processing process of uttering from.

また,本発明は,上記処理過程を備える場合に,前記対話ロボットが前記理由説明の音声データを発話した際に,前記理由説明に対するユーザの反応を検出する処理過程と,前記検出したユーザの反応を用いて,前記理由説明の対象であるサービスについてのユーザ評価を学習し,前記学習結果をもとに前記分散環境行動データベースに蓄積した情報を修正する処理過程とを備えるものである。   In addition, the present invention includes a processing process for detecting a user's reaction to the reason explanation when the interactive robot utters the voice data for the reason explanation, and the detected user reaction. And a process of learning user evaluation of the service for which the reason is explained and correcting the information accumulated in the distributed environment behavior database based on the learning result.

さらに,本発明は,前記サービスの実行後の所定の期間内に,前記ユーザが発話した音声データから生成されたユーザ発話情報が理由質問であるか否かを判定する処理過程と,前記所定の期間内に,前記理由質問であるユーザ発話情報を取得できなかった場合に,前記対話ロボット内で理由質問の発話を促す理由質問催促を生成する処理過程と,前記理由質問催促を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを備えるものである。   Further, the present invention provides a process of determining whether or not user utterance information generated from voice data uttered by the user is a reason question within a predetermined period after execution of the service; If the user utterance information that is the reason question cannot be acquired within the period, a process for generating a reason question prompt for prompting the reason question in the dialogue robot, and a voice synthesis process for the reason question prompt is performed. And a process of uttering the voice data generated from the dialogue robot.

また,本発明は,前記対話システムにおいて,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する音声データを前記対話ロボットが発話する理由説明サービス処理装置であって,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況を推論し,前記ユーザの状況にもとづいて前記ユーザに提供するサービスを選択し,前記選択したサービスを実行する制御情報を生成して対応するアプライアンスへ送信し,前記アプライアンスに当該サービスを実行させるサービス判定手段と,2)前記サービスについて,前記サービスの実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積するサービス履歴情報蓄積手段と,3)前記対話ロボットが前記ユーザの音声データを検出した場合に,前記音声データを音声認識処理してユーザ発話情報に変換し,前記ユーザ発話情報の文脈を推論し,前記ユーザ発話情報が,実行されたサービスの理由質問であると推論した場合に,前記ユーザ発話情報をもとに,前記サービス履歴情報データベースから前記質問の対象となるサービスを特定するサービス特定手段と,4)前記特定したサービスのサービス履歴情報からサービス実行時の状況を取得し,前記状況をもとに前記サービス実行の理由説明を生成し,前記理由説明を音声合成処理して生成した音声データを,前記対話ロボットから発話する対話制御手段とを備えるものである。   The present invention is also the reason explanation service processing apparatus in which the dialogue robot utters voice data explaining the reason for executing the service provided by the life support robot system in the dialogue system, and 1) the distributed environment behavior Inferring the user's situation from environmental information and behavior information stored in the database, selecting a service to be provided to the user based on the user's situation, generating control information for executing the selected service, and responding Service determination means for transmitting to the appliance and causing the appliance to execute the service; and 2) service history information for storing service history information including information on the status of execution of the service in the service history information database. Storage means, and 3) the interactive robot When the user's voice data is detected, the voice data is subjected to voice recognition processing and converted into user utterance information, the context of the user utterance information is inferred, and the user utterance information is used to determine the reason for the service performed. And 4) a service specifying means for specifying the service subject to the question from the service history information database based on the user utterance information, and 4) a service from the service history information of the specified service. A dialog control means for acquiring a situation at the time of execution, generating a description of the reason for executing the service based on the status, and voice data generated by voice synthesis processing of the reason description from the dialog robot; It is to be prepared.

また,本発明は,前記対話システムに,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する音声データを前記対話ロボットが発話する理由説明サービス処理プログラムであって,1)前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況を推論し,前記ユーザの状況にもとづいて前記ユーザに提供するサービスを選択する処理過程と,2)前記選択されたサービスを実行する制御情報を生成して対応するアプライアンスへ送信し,前記アプライアンスに当該サービスを実行させる処理過程と,3)前記サービスについて,前記サービスの実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,4)前記対話ロボットが前記ユーザの音声データを検出した場合に,前記音声データを音声認識処理してユーザ発話情報に変換する処理過程と,5)前記ユーザ発話情報の文脈を推論し,前記ユーザ発話情報が,実行されたサービスの理由質問であると推論した場合に,前記ユーザ発話情報をもとに,前記サービス履歴情報データベースから前記質問の対象となるサービスを特定する処理過程と,6)前記特定したサービスのサービス履歴情報からサービス実行時の状況を取得し,前記状況をもとに前記サービス実行の理由説明を生成する処理過程と,7)前記理由説明を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを,実行させるためのプログラムである。   The present invention also provides a reason explanation service processing program in which the dialogue robot utters voice data explaining the reason for executing the service provided by the life support robot system to the dialogue system, and 1) the distributed environment behavior A process of inferring a user's situation from environmental information and behavior information stored in a database, and selecting a service to be provided to the user based on the user's situation; 2) control information for executing the selected service And a process for causing the appliance to execute the service, and 3) for the service, service history information including information related to the status of execution of the service is stored in the service history information database. The accumulated process, and 4) the interactive robot is the user A process of recognizing the voice data and converting it into user utterance information when voice data is detected; 5) inferring the context of the user utterance information, and the user utterance information is A process of identifying the service that is the subject of the question from the service history information database based on the user utterance information when inferred that the reason question is, 6) from the service history information of the identified service A process of acquiring a service execution situation and generating a reason explanation of the service execution based on the situation; and 7) uttering speech data generated by speech synthesis processing of the reason explanation from the interactive robot This is a program for executing the processing process to be executed.

本発明によれば,生活支援ロボットシステムが実行するサービスの提供理由をユーザに説明することができるため,ユーザの依頼がなくても自動的にサービスが提供されるという,アンコンシャス型の生活支援ロボットシステムに特有の不気味さを解消することができる。   According to the present invention, the reason for providing the service executed by the life support robot system can be explained to the user, so that the service is automatically provided without the user's request. The eerieness peculiar to a robot system can be eliminated.

また,ユーザの意図と異なるサービスが実行された場合に,そのサービスの実行理由を説明することができるため,不適切なサービスが提供された原因をユーザに示して,ユーザの不満の軽減を図ることができる。   In addition, when a service different from the user's intention is executed, the reason for executing the service can be explained. Therefore, the cause of the inappropriate service being provided is shown to the user, and the user's dissatisfaction is reduced. be able to.

また,サービスの実行理由を聞いたユーザの反応を得ることができるため,その反応をもとに,実行したサービスの必要性,適切性などについてのユーザの評価を分析し,ユーザの嗜好,サービスの必要性などを学習することができる。   In addition, since the user's response to the reason for executing the service can be obtained, the user's evaluation of the necessity and appropriateness of the executed service is analyzed based on the response, and the user's preference and service Can learn the necessity of

図1は,本発明が実行される対話システムの構成例を示す図である。本実施例において,対話システムは,複数のユーザ3(3a,3b,3c)で構成される一家族の住宅(居住空間)に適用されたアンコンシャス型の生活支援ロボットシステム1と,ビジブル型の対話ロボット2で構成される。   FIG. 1 is a diagram showing a configuration example of a dialogue system in which the present invention is executed. In this embodiment, the dialogue system includes an unconscious life support robot system 1 applied to a family (residential space) composed of a plurality of users 3 (3a, 3b, 3c), a visible type Consists of a dialogue robot 2.

生活支援ロボットシステム1は,ユビキタス環境を利用して,居住空間全体をモニタリングして,通信機能を持つ家電機器(アプライアンス)4によるサービスを実行して,自律的にユーザ3の生活を支援する。   The life support robot system 1 uses the ubiquitous environment, monitors the entire living space, executes a service by the home appliance (appliance) 4 having a communication function, and autonomously supports the life of the user 3.

対話ロボット2は,ユーザ3の居住空間内に設置される。対話ロボット2は,自律的に移動できる機能を備えて,ユーザ3の居住空間内を自由に移動できるように構成されてもよい。なお,対話ロボット2は,システムとしての実体は一つであるが,同一構成の処理手段を備えた複数の筐体を持つようにしてもよい。筐体は,例えば卓上に設置可能な程度の大きさとする。対話ロボット2が複数の筐体を持つ場合には,居住空間内の各部屋に設置された対話ロボット2のうち音声データを検出した筐体における処理手段が対話ロボット2としての処理動作を開始する。処理が継続している最中に,対話相手となるユーザ3が移動したり,離れた場所にいるユーザ3との対話が必要となった場合には,対話相手と最も近い場所に設定された筐体の処理手段が処理を引き継ぐことにより,一つの処理動作の流れを複数筐体によって連携できるようにする。   The dialogue robot 2 is installed in the living space of the user 3. The interactive robot 2 may have a function of moving autonomously and may be configured to freely move in the living space of the user 3. Although the dialogue robot 2 has only one entity as a system, it may have a plurality of housings equipped with processing units having the same configuration. The housing is sized so that it can be installed on a table, for example. When the interactive robot 2 has a plurality of housings, the processing means in the housing that detects the voice data among the interactive robots 2 installed in each room in the living space starts the processing operation as the interactive robot 2. . When the user 3 who is the conversation partner moves or the conversation with the user 3 who is in a remote place becomes necessary while the processing is continuing, the place closest to the conversation partner is set. The processing means of the casing takes over the processing, so that a single processing operation flow can be linked by a plurality of casings.

この対話システムは,アンコンシャス型の生活支援ロボットシステム1とビジブル型の対話ロボット2との分散協働を図るものであって,このような分散協働は,いわば母親と子供との関係のメタファに例えることができる。   This dialogue system is intended to provide a distributed collaboration between the unconscious lifestyle support robot system 1 and the visible dialogue robot 2. Such a distributed collaboration is a metaphor of the relationship between mother and child. Can be compared.

アンコンシャス型の生活支援ロボットシステム1が組み込まれたユーザ3の生活空間全体を「母親メタファ」とする。すなわち,いつも家の中にいて家族を見守り,必要なときにはどこからともなく現れて,さりげなく家族を支援してくれる存在に例える。そして,ユーザ3との対話を受け持つ対話ロボット2を,「子供メタファ」とする。対話ロボット2を,一般的な社会常識を持つには至らないが,家庭のような小さな生活環境を共有する特定のユーザ3の嗜好やユーザ3同士の関係をある程度理解することができ,家族(ユーザ3)からかまわれたいと欲し,また興味を持つ事柄については高度な知識を獲得しうるような存在に例える。   The entire life space of the user 3 in which the unconscious life support robot system 1 is incorporated is referred to as a “mother metaphor”. In other words, it's like being in the house, watching over your family, appearing out of nowhere when you need it, and casually supporting your family. The dialogue robot 2 that handles the dialogue with the user 3 is referred to as a “child metaphor”. Although the conversation robot 2 does not have general social common sense, it can understand to some extent the preferences of specific users 3 who share a small living environment such as a home and the relationship between the users 3, and the family ( Users who want to be bitten by 3) and who are interested can be likened to being able to acquire advanced knowledge.

子供メタファの対話ロボット2は,母親メタファの生活支援ロボットシステム1と連携して,ユーザ3にとっても母親のような存在である生活支援ロボットシステム1とユーザ3との関係を円滑にするために,家族間に積極的に参加して,母親の存在を身近に感じさせるような,いわば「末っ子」の役割を担うと考えられる。   In order to facilitate the relationship between the user 3 and the life support robot system 1, which is a mother-like presence for the user 3, the child metaphor dialogue robot 2 cooperates with the life support robot system 1 of the mother metaphor. It is considered to play the role of the “youngest child” who actively participates in the family and feels the presence of the mother.

図2は,生活支援ロボットシステム1および対話ロボット2の構成例を示す図である。   FIG. 2 is a diagram illustrating a configuration example of the life support robot system 1 and the dialogue robot 2.

生活支援ロボットシステム1は,推論システム11,センサ12,分散環境行動データベース13,イベント検出装置15,サービス履歴データベース17などによって構成されている。   The life support robot system 1 includes an inference system 11, a sensor 12, a distributed environment behavior database 13, an event detection device 15, a service history database 17, and the like.

推論システム11は,推論用の知識データベースを備え,イベント検出装置15がイベントを検出すると,分散環境行動データベース13からコンテキストを取得して,居住空間内の環境,ユーザ3の動作,ユーザ3同士の相互作用(インタラクション),ユーザ3と物との相互作用などを分析し,分析結果からユーザ3の行動を推論し,結論に従って実装された生活支援のサービスのなかから実行するべきサービスを決定して,該当するアプライアンス4を制御する処理システムである。推論システム11における分析結果や推論結果は,分散環境行動データベース13に随時蓄積される。   The inference system 11 includes a knowledge database for inference. When the event detection device 15 detects an event, the inference system 11 acquires a context from the distributed environment behavior database 13 to obtain the environment in the living space, the operation of the user 3, the user 3 Analyzing the interaction (interaction), the interaction between the user 3 and the object, etc., inferring the action of the user 3 from the analysis result, and determining the service to be executed from the life support services implemented according to the conclusion , A processing system for controlling the corresponding appliance 4. Analysis results and inference results in the inference system 11 are accumulated in the distributed environment behavior database 13 as needed.

推論システム11は,理由説明サービスが実装される。理由説明サービスは,生活支援ロボットシステム1が提供する生活支援サービスの実行の理由をユーザ3から質問された場合に,その生活支援サービスの実行を決定した理由を,対話ロボット2を通じてユーザ3に説明するサービスを行う処理である。   The reasoning system 11 is implemented with a reason explanation service. The reason explanation service explains to the user 3 through the dialogue robot 2 the reason why the life support service is decided when the user 3 asks the reason for the execution of the life support service provided by the life support robot system 1. This is a process for performing a service.

また,推論システム11は,提供した生活支援サービスに対するユーザ評価のフィードバックを行う。ユーザ評価フィードバックは,理由説明サービスによって示したサービス実行の理由に対するユーザ3の反応から,理由説明の対象となったサービスの必要性,適切性などについてのユーザ3の評価を分析し,分析結果を分散環境行動データベース13のユーザ3に固有の情報に反映させる処理である。   In addition, the inference system 11 performs feedback of user evaluation for the provided life support service. The user evaluation feedback is based on the user 3's reaction to the reason for service execution indicated by the reason explanation service. This is a process of reflecting the information unique to the user 3 in the distributed environment behavior database 13.

センサ12は,通信機能を備えて,ユーザ3の居住空間内の種々のデータを計測・収集し,収集したセンサ情報を分散環境行動データベース13に送信する処理手段である。センサ12は,例えば,TVカメラ,マイク,床センサ,RFIDタグ用モニタ,アプライアンス4の内部センサなどである。   The sensor 12 is a processing unit that has a communication function, measures and collects various data in the living space of the user 3, and transmits the collected sensor information to the distributed environment behavior database 13. The sensor 12 is, for example, a TV camera, a microphone, a floor sensor, an RFID tag monitor, an internal sensor of the appliance 4, or the like.

センサ情報は,例えば,画像データ,音声データ,圧力遷移データ,IDタグデータなどのデータである。ユーザ3が所有する物や居住空間に存在する物には,非接触型電波方式認識用の識別情報が格納されたIDタグ,例えばRFID(Radio Frequency Identification)タグが付与されているとする。   The sensor information is data such as image data, sound data, pressure transition data, ID tag data, for example. Assume that an ID tag, for example, an RFID (Radio Frequency Identification) tag, in which identification information for non-contact radio wave system recognition is stored, is attached to an object owned by the user 3 or an object existing in the living space.

分散環境行動データベース13は,センサ12から取得したセンサ情報,推論システム11で分析もしくは推論された結果を蓄積し管理するデータベースシステムである。   The distributed environment behavior database 13 is a database system that accumulates and manages sensor information acquired from the sensor 12 and results analyzed or inferred by the inference system 11.

図3に,分散環境行動データベース13の構成例を示す。   FIG. 3 shows a configuration example of the distributed environment behavior database 13.

分散環境行動データベース13は,分散センサ情報データベース131,分散環境情報データベース132,分散動作情報データベース133,分散行動情報データベース134,人−物インタラクションデータベース135,人−人インタラクションデータベース136,固有情報データベース137などのデータベースシステムによって構成される。   The distributed environment behavior database 13 includes a distributed sensor information database 131, a distributed environment information database 132, a distributed operation information database 133, a distributed behavior information database 134, a person-object interaction database 135, a person-person interaction database 136, a specific information database 137, and the like. Consists of a database system.

分散センサ情報データベース131は,所定の時刻や契機ごとにセンサ12から送信された各種のセンサ情報を蓄積するデータベースである。   The distributed sensor information database 131 is a database that accumulates various types of sensor information transmitted from the sensor 12 at a predetermined time or opportunity.

分散環境情報データベース132は,物の位置,姿勢,居住空間の温湿度,アプライアンス4の内部状態などの環境情報を蓄積するデータベースである。   The distributed environment information database 132 is a database that accumulates environmental information such as the position, posture, temperature and humidity of the living space, and the internal state of the appliance 4.

例えば,ユーザ3xが勉強机に向かって本を読んでいる場合に,センサ12で計測されたセンサ情報(時刻,IDデータ,位置,画像データ,圧力データ,サービス実行部の内部センサ情報など)が推論システム11で分析され,以下のような環境情報が生成されて蓄積される。
「時刻,本のIDデータ,位置,状態(手に持たれている状態),
時刻,勉強机の電灯のIDデータ,位置,状態(点灯中),
時刻,勉強机の椅子のIDデータ,位置,状態(使用中),…。」
分散動作情報データベース133は,ユーザ3の位置,姿勢などを示す動作情報を蓄積するデータベースである。例えば,上記の例の場合に,センサ情報が推論システム11で分析され,以下のような動作情報が蓄積される。
「時刻,ユーザ3xのIDデータ,位置,姿勢(座位),…」。
For example, when the user 3x is reading a book toward the study desk, sensor information (time, ID data, position, image data, pressure data, internal sensor information of the service execution unit, etc.) measured by the sensor 12 is stored. It is analyzed by the inference system 11, and the following environmental information is generated and accumulated.
“Time, book ID data, position, status (held by hand),
Time, study desk lamp ID data, position, status (lit),
Time, study desk chair ID data, position, status (in use), ... "
The distributed motion information database 133 is a database that accumulates motion information indicating the position, posture, etc. of the user 3. For example, in the case of the above example, the sensor information is analyzed by the inference system 11 and the following operation information is accumulated.
"Time, user 3x ID data, position, posture (sitting position), ...".

人−物インタラクションデータベース135は,人−物インタラクション情報を蓄積するデータベースである。人−物インタラクション情報は,相互作用が生じているユーザ3と物との組み合わせを示す情報である。例えば,上記の例の場合に,推論システム11で環境情報および動作情報が分析され,以下のような人−物インタラクション情報が蓄積される。
「人−物インタラクション0001:ユーザ3x,本,勉強机,勉強机の椅子,電灯,…。」
人−人インタラクションデータベース136は,人−人インタラクション情報を蓄積するデータベースである。人−人インタラクション情報は,インタラクションが生じているユーザ3同士の組み合わせを示す情報である。例えば,ユーザ3a(父親)とユーザ3b(娘)がソファに座って一緒にテレビを見ているとする。推論システム11で二人の動作情報(位置や姿勢など)から相互作用が分析されて,以下のような人−人インタラクション情報が蓄積される。
「人−人インタラクション0011:ユーザ3a,ユーザ3b」。
The person-object interaction database 135 is a database for accumulating person-object interaction information. The person-object interaction information is information indicating a combination of the user 3 and the object in which the interaction occurs. For example, in the case of the above example, the inference system 11 analyzes the environment information and the operation information, and the following person-object interaction information is accumulated.
“People-things interaction 0001: user 3x, book, study desk, study desk chair, lamp,…”
The person-person interaction database 136 is a database that accumulates person-person interaction information. The person-person interaction information is information indicating a combination of the users 3 in which the interaction occurs. For example, it is assumed that a user 3a (father) and a user 3b (daughter) are sitting on a sofa and watching TV together. The inference system 11 analyzes the interaction from the motion information (position, posture, etc.) of the two people, and the following person-person interaction information is accumulated.
“People-person interaction 0011: user 3a, user 3b”.

分散行動情報データベース134は,ユーザ3の行動を示す行動情報を蓄積するデータベースである。例えば,上記のユーザ3xの例の場合に,推論システム11で環境情報,動作情報,人−物インタラクション情報,人−人インタラクション情報などから行動情報が推論され,以下のような行動情報が蓄積される。
「ユーザ3x:読書中,勉強中,…」。
The distributed behavior information database 134 is a database that accumulates behavior information indicating the behavior of the user 3. For example, in the case of the above-described example of the user 3x, the inference system 11 infers behavior information from environment information, operation information, person-object interaction information, person-person interaction information, etc., and accumulates the following behavior information. The
"User 3x: reading, studying ..."

固有情報データベース137は,ユーザ3ごとの属性を示す固有情報を蓄積するデータベースである。固有情報は,ユーザ3の身体的特徴,性別などの他,推論システム11によって推論された情報(例えば,ユーザ3の嗜好に関する情報,生活支援サービスに対する必要性の有無などの情報)である。   The unique information database 137 is a database that accumulates unique information indicating attributes for each user 3. The unique information is information inferred by the inference system 11 in addition to the physical characteristics and sex of the user 3 (for example, information on the preference of the user 3 and information on the necessity of the life support service).

イベント検出装置15は,分散環境行動データベース13の情報の更新や,対話ロボット2からのサービス実行要求を検出すると,推論システム11にイベント検出を通知する処理装置である。   The event detection device 15 is a processing device that notifies the inference system 11 of event detection when an update of information in the distributed environment behavior database 13 or a service execution request from the interactive robot 2 is detected.

サービス履歴データベース17は,推論システム11によって実行されたサービスごとの履歴情報を蓄積するデータベースである。推論システム11は,推論処理においてサービス履歴データベース17の情報も参照する。サービス履歴データベース17に蓄積されるサービス履歴情報は,実行したサービス名,サービスの実行時の状況,サービス実行の開始時刻や終了時刻などである。サービスの実行時の状況は,分散環境行動データベース13に蓄積される情報の一部であって,そのサービスの実行の決定に関係する情報,例えば,ユーザ3の位置,動作,行動などの情報である。   The service history database 17 is a database that accumulates history information for each service executed by the inference system 11. The inference system 11 also refers to the information in the service history database 17 in the inference process. The service history information stored in the service history database 17 includes the name of the executed service, the service execution status, the service execution start time and end time, and the like. The service execution status is a part of information stored in the distributed environment behavior database 13 and is information related to the determination of the execution of the service, for example, information such as the position, operation, and behavior of the user 3. is there.

生活支援ロボットシステム1の推論システム11,分散環境行動データベース13,イベント検出装置15,サービス履歴データベース17は,既知の処理手段もしくは装置を用いて実施することが可能である。   The reasoning system 11, the distributed environment behavior database 13, the event detection device 15, and the service history database 17 of the life support robot system 1 can be implemented using known processing means or devices.

アプライアンス4は,データ送受信機能を備えて,推論システム11からの制御もしくはユーザ3自身の操作により,所定のサービスを実行する家電機器である。   The appliance 4 is a home appliance that has a data transmission / reception function and executes a predetermined service by the control from the inference system 11 or the operation of the user 3 itself.

対話ロボット2は,音声認識部21,音声合成部22,対話制御部23,対話戦略データベース24,状況情報取得部25,状況記憶部26,知識データベース27,実行要求部29などで構成されている。   The dialogue robot 2 includes a voice recognition unit 21, a voice synthesis unit 22, a dialogue control unit 23, a dialogue strategy database 24, a situation information acquisition unit 25, a situation storage unit 26, a knowledge database 27, an execution request unit 29, and the like. .

音声認識部21は,ユーザ3が発話した音声データを入力し,入力した音声データの内容を認識してユーザ3の発話情報に変換する処理手段である。   The voice recognition unit 21 is processing means for inputting voice data uttered by the user 3, recognizing the content of the input voice data, and converting it into the utterance information of the user 3.

音声合成部22は,対話制御部23によって生成されたロボット発話情報を音声データに変換して発話する処理手段である。ロボット発話情報は,ユーザ3の会話に対する応答文データ,ユーザ3への問いかけのための発話文などのデータである。   The voice synthesizer 22 is processing means for converting the robot utterance information generated by the dialogue controller 23 into voice data and uttering. The robot utterance information is data such as response sentence data for the conversation of the user 3 and an utterance sentence for asking the user 3.

対話制御部23は,状況記憶部26に格納された情報からユーザ3の周囲の環境やユーザ3の状況を解析し,解析した状況にもとづいてユーザ3に提供するサービスを選択する処理,対話戦略データベース24の連想情報にもとづいてユーザ3の状況と関連する概念を特定し,その概念を示す言語表現を用いてロボット発話データを生成する処理を行う処理手段である。   The dialogue control unit 23 analyzes the environment around the user 3 and the situation of the user 3 from the information stored in the situation storage unit 26, selects a service to be provided to the user 3 based on the analyzed situation, and dialogue strategy It is a processing means for performing a process of identifying a concept related to the situation of the user 3 based on the association information in the database 24 and generating robot utterance data using a language expression indicating the concept.

対話制御部23は,サービスを選択する処理として,状況記憶部26に格納された分散環境行動データベース13およびサービス履歴データベース17の情報をもとに理由説明サービスの実行を決定する。   The dialogue control unit 23 determines the execution of the reason explanation service based on the information in the distributed environment behavior database 13 and the service history database 17 stored in the situation storage unit 26 as a process for selecting a service.

対話戦略データベース24は,対話ロボット2がユーザ3との対話を推論してユーザ3を自己の対話へ引き込みもしくは継続のための応答生成用の情報を蓄積するデータベースである。   The dialogue strategy database 24 is a database in which the dialogue robot 2 infers a dialogue with the user 3 and accumulates information for generating a response for drawing the user 3 into his own dialogue or continuing.

状況情報取得部25は,分散環境行動データベース13の環境情報,動作情報,行動情報,固有情報などの情報の一部やサービス履歴データベース17のサービス履歴情報の一部を取得して状況記憶部26に格納する処理手段である。   The situation information acquisition unit 25 acquires part of information such as environment information, operation information, action information, and unique information in the distributed environment action database 13 and part of service history information in the service history database 17 to obtain a situation storage unit 26. It is a processing means to store in.

知識データベース27は,アプライアンス4またはアプライアンス4で実行されるサービスに関する知識情報,例えば,アプライアンス4がテレビである場合の番組情報,アプライアンス4が電子レンジである場合の操作マニュアル情報などを蓄積するデータベースである。   The knowledge database 27 is a database that accumulates knowledge information about the appliance 4 or a service executed on the appliance 4, for example, program information when the appliance 4 is a television, operation manual information when the appliance 4 is a microwave oven, and the like. is there.

実行要求部29は,対話制御部23が選択したサービス実行要求を生活支援ロボットシステム1へ送信する処理手段である。また,実行要求部29は,アプライアンス4へ直接サービス実行要求を送信してもよい。   The execution request unit 29 is a processing unit that transmits the service execution request selected by the dialogue control unit 23 to the life support robot system 1. Further, the execution request unit 29 may transmit a service execution request directly to the appliance 4.

本例では,対話ロボット2の音声認識部21,音声合成部22,対話制御部23は,既存の擬人化音声対話エージェントツールキット(Galatea Toolkit )により実現する(例えば,http://hil.t.u-tokyo.ac.jp/〜 galatea/galatea-jp.html, Prendinger, Helmut; Ishizuka, Mitsuru (Eds.); "Life-Like Characters Tools, Affective Functions, and Applications Series: Cognitive Technologies"; pp.187-213; 2004; ISBN:3-540-00867-5 参照)。   In this example, the speech recognition unit 21, the speech synthesis unit 22, and the dialogue control unit 23 of the dialogue robot 2 are realized by an existing anthropomorphic spoken dialogue agent tool kit (Galatea Toolkit) (for example, http: //hil.tu -tokyo.ac.jp/~ galatea / galatea-jp.html, Prendinger, Helmut; Ishizuka, Mitsuru (Eds.); "Life-Like Characters Tools, Affective Functions, and Applications Series: Cognitive Technologies"; pp.187- 213; 2004; ISBN: 3-540-00867-5).

なお,生活支援ロボットシステム1の分散環境行動データベース13,サービス履歴データベース17と,対話ロボット2の状況情報取得部25,状況記憶部26とをまとめて分散環境行動データベース13−1として構成することもできる。   In addition, the distributed environment behavior database 13 and the service history database 17 of the life support robot system 1 and the situation information acquisition unit 25 and the situation storage unit 26 of the dialogue robot 2 may be collectively configured as the distributed environment behavior database 13-1. it can.

図4は,本発明の処理の概要を説明するための図である。   FIG. 4 is a diagram for explaining the outline of the processing of the present invention.

ステップS1〜ステップS4は種々の生活支援サービス実行の処理の流れ,ステップS5〜ステップS9は理由説明サービス実行の処理の流れ,ステップS10はユーザ評価フィードバックの処理を示す。   Steps S1 to S4 show various life support service execution processes, Steps S5 to S9 show a reason explanation service execution process, and Step S10 shows a user evaluation feedback process.

生活支援ロボットシステム1は,センサ12から収集されるセンサ情報,対話ロボット2で収集されるユーザ3の発話情報によって,サービス実行の所定の発火条件(推論を可能とする条件)を取得する(ステップS1)。推論システム11は,分散環境行動データベース13から取得したユーザ3の状況や対話などのコンテキストによって,ユーザ3に提供するサービス内容を決定する(ステップS2)。該当するアプライアンス4を制御して,決定したサービスを実行する(ステップS3)。さらに,決定したサービス実行についてのサービス実行履歴情報をサービス履歴データベース17に保存する(ステップS4)。   The life support robot system 1 acquires predetermined firing conditions (conditions that enable inference) for service execution based on the sensor information collected from the sensor 12 and the utterance information of the user 3 collected by the dialogue robot 2 (steps for enabling inference) S1). The inference system 11 determines the service content to be provided to the user 3 according to the context of the user 3 acquired from the distributed environment behavior database 13 or a context such as a dialogue (step S2). The corresponding appliance 4 is controlled to execute the determined service (step S3). Further, service execution history information on the determined service execution is stored in the service history database 17 (step S4).

その後,生活支援ロボットシステム1で自動的に実行されたサービスに対して,ユーザ3が「どうして○○したの?」や「なぜ△△なの?」などの発話を行って,サービス実行の理由を尋ねたと仮定する。   After that, for the service automatically executed by the life support robot system 1, the user 3 utters “why did you ○○” or “why? Suppose you asked.

対話ロボット2は,ユーザ3の音声データ「どうして○○したの?」を取得し,「どうして,なぜ」などの質問表現を含む質問文であると解析し,理由説明サービス実行の所定の発火条件(ユーザ3の発話が質問文であること)を獲得する(ステップS5)。   The dialogue robot 2 acquires the voice data “Why did you do it?” Of the user 3, analyzes it as a question sentence including a question expression such as “Why, why”, and the predetermined firing condition for executing the reason explanation service (The utterance of the user 3 is a question sentence) is acquired (step S5).

生活支援ロボットシステム1の推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,現在実行しているサービスのなかから理由説明を求められているサービスを特定する(ステップS6)。対話ロボット2は,特定したサービスのサービス履歴情報のサービスの実行時の状況などの情報から理由説明文を生成してロボット発話情報とし(ステップS7),ロボット発話情報(理由説明文)を音声合成処理して,ユーザ3に対して発話を行って,理由説明サービスを実行する(ステップS8)。   The inference system 11 of the life support robot system 1 refers to the service history information in the service history database 17 and identifies the service for which the reason is requested from the currently executed services (step S6). The interactive robot 2 generates reason explanation text from information such as the service execution status of the identified service history information as robot utterance information (step S7), and speech synthesis of the robot utterance information (reason explanation text) Processing is performed, the user 3 is uttered, and a reason explanation service is executed (step S8).

さらに,生活支援ロボットシステム1は,実行した理由説明サービスのサービス履歴情報をサービス履歴データベース17に保存する(ステップS9)。   Furthermore, the life support robot system 1 stores the service history information of the executed reason explanation service in the service history database 17 (step S9).

また,ステップS8の処理で理由説明サービスが実行された際に,ユーザ3から理由説明に対する何らかの反応を獲得できた場合に,推論システム11は,ユーザ3の反応に関する情報を発火条件としてユーザ評価のフィードバックを行う(ステップS10)。推論システム11は,理由説明に対するユーザ3の応答を,理由説明したサービスに対する評価情報とみなして,理由説明にかかるサービスに対するユーザ評価を学習する。そして,この学習結果を分散環境行動データベース13に反映させる。   In addition, when the reason explanation service is executed in the process of step S8, if any response to the reason explanation can be obtained from the user 3, the inference system 11 uses the information on the reaction of the user 3 as a firing condition for user evaluation. Feedback is performed (step S10). The inference system 11 regards the response of the user 3 to the reason explanation as evaluation information for the service explained for the reason, and learns the user evaluation for the service concerning the reason explanation. Then, the learning result is reflected in the distributed environment behavior database 13.

このような処理によって,生活支援ロボットシステム1が自動的に実行したサービスについてユーザ3が疑問を感じたり,とまどったりした場合でも,子供メタファである対話ロボット2から説明することができるため,そのサービスが提供された理由をユーザ3に理解してもらうことができる。   By such processing, even if the user 3 feels suspicious about the service automatically executed by the life support robot system 1 or is confused, it can be explained from the interactive robot 2 that is a child metaphor. The user 3 can understand the reason why the service is provided.

さらに,理由説明に対するユーザ3の反応を,理由説明を求められたサービスに対する評価とみなして,ユーザ評価のフィードバックを行うことができるため,より適切なサービス実行の実現を図ることができる。   Furthermore, since the user 3's reaction to the reason explanation can be regarded as an evaluation of the service for which the reason explanation is requested, feedback of the user evaluation can be performed, so that more appropriate service execution can be realized.

また,生活支援ロボットシステム1が,あるサービスを初めて実行した場合や,実行したサービスについてユーザ3が何ら実行理由の説明を求めない場合など,ユーザ評価のフィードバックが行われていない場合には,現在実行中のサービスに対するユーザ評価を取得する必要がある。このため,対話ロボット2の対話制御部23は,対話戦略データベース24を参照してロボット発話情報「どうしてって,言ってみて」を生成し,ユーザ3に対して発話する。このような対話ロボット2の理由質問の催促がなされ,ユーザ3が,対話ロボット2の発話を受けて「どうして?」と答えることによって,ステップS5の処理が行われるため,理由説明に対するユーザ3の応答が期待でき,ユーザ評価を得ることができる。   In addition, when the life support robot system 1 executes a certain service for the first time, or when the user 3 does not ask for an explanation of the execution reason for the executed service, when the user evaluation feedback is not performed, You need to get a user rating for a running service. For this reason, the dialogue control unit 23 of the dialogue robot 2 refers to the dialogue strategy database 24 to generate the robot utterance information “Why say, say” and utter to the user 3. The reason for the reason for the dialog robot 2 is prompted, and the user 3 receives the utterance from the dialog robot 2 and answers “why?”, So that the process of step S5 is performed. A response can be expected and user evaluation can be obtained.

図5は,対話システムの処理の流れの例を示す図である。   FIG. 5 is a diagram showing an example of the processing flow of the dialogue system.

対話システムの生活支援ロボットシステム1および対話ロボット2は,互いに協働して,生活支援サービス,理由説明サービス,ユーザ評価フィードバックの処理を繰り返し行う。   The life support robot system 1 and the dialog robot 2 of the dialogue system cooperate with each other to repeatedly perform the life support service, reason explanation service, and user evaluation feedback processing.

ステップS21:音声データ認識処理
対話ロボット2の音声認識部21は,ユーザ3が発話した音声データを検出して入力し,その音声データに音声認識処理を行って発話情報に変換する。
Step S21: Speech data recognition processing The speech recognition unit 21 of the interactive robot 2 detects and inputs speech data uttered by the user 3, performs speech recognition processing on the speech data, and converts it into speech information.

ステップS22:状況情報取得処理
並行して,生活支援ロボットシステム1の分散環境行動データベース13は,センサ12から取得した音声データ,画像データなどのセンサ情報を分散センサ情報データベース131に格納し,センサ情報をもとに,ユーザ3が生活する環境やユーザ3の状態,動作,行動などの状況情報を取得する。
Step S22: Status Information Acquisition Processing In parallel, the distributed environment behavior database 13 of the life support robot system 1 stores sensor information such as voice data and image data acquired from the sensor 12 in the distributed sensor information database 131, and sensor information Based on the information, the environment information in which the user 3 lives and the status information such as the state, operation, and behavior of the user 3 are acquired.

ステップS23:対話・状況推論/サービス選択処理
対話ロボット2によって収集されたユーザ3の音声データ,センサ12によって収集されたセンサ情報が分散環境行動データベース13に蓄積されると,イベント検出装置15は,分散環境行動データベース13を参照して,所定の情報の追加や変更などのイベントを検出し,推論システム11に通知する。推論システム11は,イベント検出に関連するユーザ3の発話情報,状況情報を発火条件として,ユーザ3の状況を推論し,実行可能なサービスのなかから最適なサービスを選択する。
Step S23: Dialogue / situation inference / service selection processing When the voice data of the user 3 collected by the dialogue robot 2 and the sensor information collected by the sensor 12 are accumulated in the distributed environment behavior database 13, the event detection device 15 By referring to the distributed environment behavior database 13, an event such as addition or change of predetermined information is detected and notified to the inference system 11. The inference system 11 infers the situation of the user 3 using the utterance information and situation information of the user 3 related to the event detection as firing conditions, and selects an optimum service from the executable services.

または,対話ロボット2の対話制御部23は,ユーザ3の発話情報を解析して文脈を推論し,推論した文脈および状況情報をもとにユーザ3の状況を推論し,実行可能なサービスの中から最適なサービスを選択するようにしてもよい。この場合に,実行要求部29は,選択したサービス実行の要求を生活支援ロボットシステム1へ通知する。   Alternatively, the dialogue control unit 23 of the dialogue robot 2 infers the context by analyzing the utterance information of the user 3, and infers the situation of the user 3 based on the inferred context and situation information. The optimum service may be selected from the above. In this case, the execution request unit 29 notifies the life support robot system 1 of the selected service execution request.

ステップS24:サービス内容決定処理
推論システム11は,選択した生活支援サービスの内容を,分散環境行動データベース13の情報を参照して決定する。
Step S24: Service Content Determination Process The inference system 11 determines the content of the selected life support service with reference to the information in the distributed environment behavior database 13.

ステップS25:実行要求処理
推論システム11は,選択されたサービスを実現するためにアプライアンス4の制御情報を生成し,該当するアプライアンス4ヘ送信する。
Step S25: Execution Request Processing The inference system 11 generates control information for the appliance 4 to realize the selected service, and transmits it to the corresponding appliance 4.

ステップS26:音声合成処理
また,実行するサービスの制御情報として,対話ロボット2のロボット発話情報がある場合には,対話ロボット2の音声合成部22は,ロボット発話情報を音声合成処理して音声データを生成し,ユーザ3に対して発話する。
Step S26: Speech synthesis processing When there is the robot utterance information of the interactive robot 2 as the control information of the service to be executed, the speech synthesizer 22 of the interactive robot 2 performs speech synthesis processing on the robot utterance information to obtain voice data. Is uttered to the user 3.

ステップS27:実行内容保存処理
推論システム11は,実行したサービスの内容をサービス履歴情報としてサービス履歴データベース17に保存する。
Step S27: Execution Content Storage Processing The inference system 11 stores the content of the executed service in the service history database 17 as service history information.

ステップS28:音声データ認識処理
その後,生活支援ロボットシステム1で自動的に実行されたサービスに対して,ユーザ3が「どうして○○したの?」や「なぜ△△なの?」などの発話を行って,サービス実行の理由を尋ねたとする。対話ロボット2の音声認識部21は,ユーザ3が発話した音声データを検出して入力し,入力した音声データを音声認識処理して発話情報を取得する。
Step S28: Speech data recognition processing Thereafter, the user 3 utters “why did you XX” or “why △ △?” To the service automatically executed by the life support robot system 1 And ask the reason for service execution. The voice recognition unit 21 of the dialogue robot 2 detects and inputs voice data uttered by the user 3, and performs voice recognition processing on the input voice data to acquire utterance information.

ステップS29:対話・状況推論/サービス選択処理
対話制御部23では,ユーザ3の発話情報を解析して文脈を推論する。ここで,ユーザ発話情報に「どうして,なぜ」などの質問表現やサービスの実行に関係する表現が含まれている場合に,発話情報がサービス実行の理由を質問している文(理由質問文)であると推論する。
Step S29: Dialogue / situation inference / service selection process The dialogue control unit 23 analyzes the utterance information of the user 3 to infer a context. Here, when the user utterance information includes a question expression such as “why, why” or an expression related to service execution, the utterance information asks the reason for service execution (reason question sentence). Infer that

そして,理由説明サービス実行の発火条件として理由質問文の取得が定義されているとすると,対話制御部23は,実行可能なサービスのなかから理由説明サービスの実行を決定する。実行要求部29は,理由説明サービス実行の要求を生活支援ロボットシステム1へ通知する。   If acquisition of a reason question sentence is defined as a firing condition for executing the reason explanation service, the dialogue control unit 23 determines execution of the reason explanation service from the executable services. The execution request unit 29 notifies the life support robot system 1 of a request for executing the reason explanation service.

ステップS30:サービス特定処理
推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,現在実行しているサービスのなかから理由説明を求められているサービスを特定する。
Step S30: Service identification process The inference system 11 refers to the service history information in the service history database 17 and identifies a service for which a reason is requested from among currently executed services.

ステップS31:理由説明文生成処理
状況情報取得部25は,特定されたサービスについてのサービス履歴情報のサービス実行時の状況などの情報を取得する。また,必要であれば,分散環境行動データベース13からユーザ3の固有情報などを取得する。対話制御部23は,サービスの実行時の状況から理由説明のキーとなるような表現を抽出して理由説明文を生成し,ロボット発話情報とする。
Step S31: Reason Explanation Text Generation Processing The status information acquisition unit 25 acquires information such as the service execution status of the service history information for the specified service. Further, if necessary, the unique information of the user 3 is acquired from the distributed environment behavior database 13. The dialogue control unit 23 extracts an expression that is a key to explain the reason from the service execution state, generates a reason explanation, and uses it as robot utterance information.

ステップS32:音声合成処理
音声合成部22は,理由説明文を音声合成処理し,生成した音声データをユーザ3に対して発話する。
Step S32: Speech Synthesis Processing The speech synthesis unit 22 performs speech synthesis processing on the reason explanation and utters the generated speech data to the user 3.

ステップS33:実行内容保存処理
推論システム11は,理由説明サービス実行の内容をサービス履歴情報としてサービス履歴データベース17に保存する。
Step S33: Execution Content Storage Process The inference system 11 stores the reason execution service execution content in the service history database 17 as service history information.

ステップS34:音声データ認識処理
その後,対話ロボット2が理由説明を発話した際に,ユーザ3が「わかったよ」や「ありがとう」や「いらないよ」などの返事をしたとする。
Step S34: Speech data recognition processing After that, when the dialogue robot 2 utters an explanation of the reason, it is assumed that the user 3 responds such as "I understand", "Thank you", or "I don't need it".

音声認識部21は,ユーザ3の音声データ「わかったよ」を検出して入力し,音声識別処理を行って発話情報に変換する。   The voice recognition unit 21 detects and inputs the voice data “I understand” of the user 3, performs voice identification processing, and converts it into speech information.

ステップS35:対話・状況推論/サービス選択処理
対話制御部23では,ユーザ3の発話情報を解析して文脈を推論する。発話情報に「わかったよ」などの肯定的な表現が含まれている場合に,この発話情報が,肯定的応答文であると推論する。そして,ユーザ評価フィードバックの処理を選択する。実行要求部29は,生活支援ロボットシステム1に,ユーザ評価フィードバック要求を通知する。
Step S35: Dialogue / Situation Reasoning / Service Selection Process The dialogue control unit 23 analyzes the utterance information of the user 3 and infers the context. When the utterance information includes a positive expression such as “I understand”, it is inferred that the utterance information is a positive response sentence. Then, the user evaluation feedback process is selected. The execution request unit 29 notifies the life support robot system 1 of a user evaluation feedback request.

ステップS36:フィードバック処理
推論システム11は,理由説明に対するユーザ3の応答文を,理由説明が求められたサービスに対するユーザ評価情報とみなして,理由説明にかかるサービスに対するユーザ評価を学習する。そして,この学習結果をもとに,分散環境行動データベース13の固有情報データベース137の嗜好情報などの関連する情報を修正したり,サービスの必要性の有無を示す新たな情報を追加したりする。
Step S36: Feedback Process The inference system 11 regards the response sentence of the user 3 to the reason explanation as user evaluation information for the service for which the reason explanation is requested, and learns the user evaluation for the service concerning the reason explanation. Then, based on the learning result, related information such as preference information in the unique information database 137 of the distributed environment behavior database 13 is corrected, or new information indicating the necessity of the service is added.

例えば,「わかったよ」などの肯定的応答文から,理由説明の対象となったサービスが,ユーザ3にとって必要かつ適切なものであったと学習する。一方,「いらないよ」などの否定的応答文から,理由説明の対象となったサービスは,ユーザ3にとって不要または不適切なものであったと学習する。そして,学習結果をもとに,固有情報データベース137のユーザ3の嗜好情報やこのサービスについての評価情報を修正する。   For example, it learns from a positive response sentence such as “I understand” that the service for which the reason was explained was necessary and appropriate for the user 3. On the other hand, from the negative response sentence such as “I don't need it”, it is learned that the service whose reason has been explained is unnecessary or inappropriate for the user 3. Based on the learning result, the preference information of the user 3 in the unique information database 137 and the evaluation information about this service are corrected.

なお,ユーザ評価フィードバック処理において,ユーザ3の発話情報である応答文のほか,対話ロボット2の頭を撫でる音や叩く音,ユーザ3の仕草などのセンサ情報を用いることができる。   In the user evaluation feedback process, in addition to the response sentence that is the utterance information of the user 3, sensor information such as a buzzing sound and a hitting sound of the dialog robot 2 and a gesture of the user 3 can be used.

また,生活支援ロボットシステム1の生活支援サービスが実行された場合に,既にサービスの提供理由を知っていたり,予測していたユーザ3から「ありがとう」と応答されたときは,理由説明サービスの実行を省略して,ユーザ評価フィードバック処理をただちに行うようにしてもよい。   In addition, when the life support service of the life support robot system 1 is executed, if the user 3 already knows the reason for providing the service or the user 3 who has predicted predicts “thank you”, the reason explanation service is executed. May be omitted and the user evaluation feedback process may be performed immediately.

また,ステップS30のサービス特定処理において,ユーザ発話情報の理由質問文に,過去に実行されたサービスを特定できる情報や,時間帯などを特定できる情報が含まれている場合には,サービス履歴情報のサービス実行の時間情報を参照して,理由を求められているサービスを特定する。   Further, in the service specifying process in step S30, if the reason question sentence of the user utterance information includes information that can specify a service executed in the past, information that can specify a time zone, etc., service history information Identify the service for which the reason is sought by referring to the service execution time information.

例えば,ユーザ発話情報が「どうして,今朝,天気予報をつけたの?」であれば,「今朝」という一定の時間帯を特定できる表現をもとに,その時間帯に実行していたサービスから,理由を求められているサービスを特定する。   For example, if the user utterance information is “Why did you put on a weather forecast this morning?”, Based on the expression that can identify a certain time zone “This morning”, Identify the service for which the reason is sought.

図6および図7は,理由説明サービスの具体例における処理の流れを示す図である。   6 and 7 are diagrams showing a flow of processing in a specific example of the reason explanation service.

図6は,図1の対話システムにおいて,テレビのスイッチを自動的にオンにする生活支援サービスが実行された場合の理由説明サービスの処理の流れを示す図である。   FIG. 6 is a diagram showing the flow of processing of the reason explanation service when the life support service for automatically turning on the television switch is executed in the dialogue system of FIG.

生活支援ロボットシステム1は,テレビの前のクッション型センサ12から収集されるセンサ情報によって,ユーザ3a,3bが,アプライアンス(テレビ)4の前に座っている状況を検出する(ステップS41)。   The life support robot system 1 detects a situation in which the users 3a and 3b are sitting in front of the appliance (television) 4 based on the sensor information collected from the cushion type sensor 12 in front of the television (step S41).

推論システム11は,イベント検出の通知によって,分散環境行動データベース13を参照し,ユーザ3a,3bの状況情報を発火条件として,実行可能な生活支援サービスのなかから,サービス「テレビのスイッチオン」を決定する(ステップS42)。   The inference system 11 refers to the distributed environment behavior database 13 by notification of event detection, and uses the status information of the users 3a and 3b as a firing condition to execute the service “switch on TV” from among executable life support services. Determine (step S42).

そして,アプライアンス4であるテレビに対して「スイッチオン」の制御情報を送信する。また,対話ロボット2は,生活支援ロボットシステム1が実行したサービス内容(テレビのスイッチオン)をユーザ3a,3bに知らせるために,ロボット発話情報「テレビをつけたよ」を生成し,発話する(ステップS43)。   Then, “switch-on” control information is transmitted to the television which is the appliance 4. In addition, the dialogue robot 2 generates and speaks the robot utterance information “I turned on the TV” in order to inform the users 3a and 3b of the service contents (TV switch-on) performed by the life support robot system 1 (steps). S43).

また,生活支援ロボットシステム1は,提供したサービス実行に関するサービス実行履歴情報をサービス履歴データベース17に保存する。サービス実行履歴情報には,実行サービス(テレビのスイッチオン),サービス実行時の状況(ユーザ3a,3bがテレビの前に座っている状況),実行時間情報(実行開始時刻,実行終了時刻)などの情報が含まれる(ステップS44)。   In addition, the life support robot system 1 stores service execution history information related to the provided service execution in the service history database 17. The service execution history information includes execution service (TV switch-on), service execution status (situation where users 3a and 3b are sitting in front of the TV), execution time information (execution start time, execution end time), etc. Is included (step S44).

その後,生活支援ロボットシステム1によって自動的にテレビのスイッチがオンになったので,ユーザ3aが「どうしてテレビがついたの?」と質問したとする。   After that, since the television switch is automatically turned on by the life support robot system 1, it is assumed that the user 3a asks "Why did the television come on?"

対話ロボット2の対話制御部23は,ユーザ3aの音声データから音声認識処理によって抽出された発話情報に「どうして」という質問表現が含まれていることから,発話情報を理由質問文と推論し,この理由質問文の取得を理由説明サービスの発火条件として,推論システム11に,理由説明サービスの実行を要求する(ステップS45)。   The dialogue control unit 23 of the dialogue robot 2 infers the utterance information as a reason question sentence because the utterance information extracted from the voice data of the user 3a by the voice recognition process includes the question expression “why”. The reasoning service is requested to be executed by the inference system 11 using the reason question sentence acquisition as the firing condition of the reason explanation service (step S45).

推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,現在実行されているサービスのなかから理由説明を求められているサービス「テレビのスイッチオン」を特定する(ステップS46)。   The inference system 11 refers to the service history information in the service history database 17 and identifies the service “TV switch-on” for which the reason is sought from among the currently executed services (step S46).

対話ロボット2の対話制御部23は,特定したサービスのサービス履歴情報から,そのサービスの実行時の状況(ユーザ3a,3bがテレビの前に座っている状況)を取得し,実行時の状況などから「テレビの前,座っている」などの表現を抽出して理由説明文「テレビの前に座ったからだよ」を生成してロボット発話情報とする(ステップS47)。そして,音声合成部22は,ロボット発話情報を音声合成処理して生成した音声データをユーザ3aへ向けて発話する(ステップS48)。   The dialogue control unit 23 of the dialogue robot 2 obtains the execution status of the service (situation where the users 3a and 3b are sitting in front of the television) from the service history information of the identified service, and the execution status and the like. From this, an expression such as “sitting in front of the TV” is extracted to generate a reason explanation “being sitting in front of the TV” as robot utterance information (step S47). Then, the voice synthesizer 22 utters the voice data generated by performing the voice synthesis process on the robot utterance information to the user 3a (step S48).

さらに,生活支援ロボットシステム1は,実行した理由説明サービスのサービス履歴情報をサービス履歴データベース17に保存する(ステップS49)。   Furthermore, the life support robot system 1 stores the service history information of the executed reason explanation service in the service history database 17 (step S49).

また,ステップS48の処理において,対話ロボット2の発話に対してユーザ3aから何らかの応答があった場合には,生活支援ロボットシステム1は,これを発火条件としてユーザ評価のフィードバック処理を行い,その結果を分散環境行動データベース13の情報に反映させる(ステップS410)。   In the process of step S48, if there is any response from the user 3a to the utterance of the interactive robot 2, the life support robot system 1 performs a feedback process of user evaluation using this as an ignition condition, and the result Is reflected in the information of the distributed environment behavior database 13 (step S410).

図7は,図1の対話システムにおいて,ユーザ3の要求によって推奨するテレビ番組をつけるという生活支援サービスが実行された場合の理由説明サービスの処理の流れを示す図である。   FIG. 7 is a diagram showing the flow of processing of the reason explanation service when the life support service of attaching a recommended TV program according to the request of the user 3 is executed in the interactive system of FIG.

対話ロボット2の音声認識部21は,アプライアンス(テレビ)4の前のソファに座っているユーザ3aの「お勧めの番組をつけて」という音声データを検出する(ステップS51)。   The voice recognition unit 21 of the dialogue robot 2 detects voice data “Please turn on a recommended program” of the user 3a sitting on the sofa in front of the appliance (TV) 4 (step S51).

対話制御部23は,音声認識部21が音声認識処理をして生成したユーザ3aの発話情報に含まれる「お勧め,番組,つけて」から文脈を推論し,実行可能なサービスのなかからサービス「推奨するテレビ番組をつける」を選択する。さらに,状況情報取得部25によって取得され,状況記憶部26に格納された分散環境行動データベース13のユーザ3aの嗜好情報と,知識データベース27に格納された現在放送中の番組情報などを参照して,サービス内容を決定する。例えば,ユーザ3aの嗜好情報に「○○,△△が出演する番組を多く見る」という情報が蓄積されているとすると,番組情報から○○または△△が出現している現在放送中の番組を検索する。そして,○○が出演している番組aが放送中であれば,番組aを放送しているチャンネルch_nを取得し,サービス内容として「テレビのスイッチをオンにし,チャンネルをch_nにあわせる」を設定する(ステップS52)。   The dialogue control unit 23 infers the context from “recommendation, program, attach” included in the utterance information of the user 3a generated by the speech recognition unit 21 through the speech recognition process, and executes the service from the executable services. Select “Turn on recommended TV program”. Furthermore, referring to the preference information of the user 3a in the distributed environment behavior database 13 acquired by the status information acquisition unit 25 and stored in the status storage unit 26, the program information currently being broadcast stored in the knowledge database 27, and the like. , Determine service contents. For example, if the user 3a's preference information stores information that “views many programs in which XX and △△ appear” is stored, the currently broadcast program in which XX or △△ appears from the program information. Search for. If the program a in which XX appears is being broadcast, the channel ch_n broadcasting the program a is acquired, and “turn on the TV and adjust the channel to ch_n” is set as the service content. (Step S52).

そして,生活支援ロボットシステム1は,アプライアンス4であるテレビに対して「スイッチをオンにして,チャンネルをch_nに設定」の制御情報を送信する。また,対話ロボット2は,実行したサービスをユーザ3aに確認させるために,ロボット発話情報「番組aをつけたよ」を生成し,発話する(ステップS53)。   Then, the life support robot system 1 transmits the control information “turn on the switch and set the channel to ch_n” to the television which is the appliance 4. Further, the dialogue robot 2 generates and utters the robot utterance information “I added program a” in order to make the user 3a confirm the executed service (step S53).

また,提供したサービス実行に関するサービス実行履歴情報をサービス履歴データベース17に保存する。サービス実行履歴情報には,実行サービス(スイッチをオンにして,チャンネルをch_nに設定),サービス実行時の状況(ユーザ3aがテレビの前に座っている状況,ユーザ3aの発話情報「お勧めの番組をつけて」),実行時間情報(実行開始時刻,実行終了時刻)などの情報が含まれる(ステップS54)。   Further, service execution history information related to the provided service execution is stored in the service history database 17. The service execution history information includes an execution service (switch is turned on and a channel is set to ch_n), a situation at the time of service execution (a situation where the user 3a is sitting in front of the TV, an utterance information of the user 3a "Recommended Information such as execution time information (execution start time, execution end time) is included (step S54).

その後,生活支援ロボットシステム1によって自動的にテレビのスイッチがオンになって番組aがついたので,ユーザ3aが「なぜ,この番組をつけたの?」と質問したとする。   Thereafter, since the television is automatically turned on by the life support robot system 1 and the program a is attached, it is assumed that the user 3a asks "Why did you turn on this program?"

対話ロボット2の対話制御部23は,ユーザ3aの音声データから音声認識処理によって抽出された発話情報に「なぜ」という質問表現が含まれていることから,発話情報を理由質問文と推論し,この理由質問文の取得を理由説明サービスの発火条件として,推論システム11に,理由説明サービスの実行を要求する(ステップS55)。   The dialogue control unit 23 of the dialogue robot 2 infers the utterance information as a reason question sentence because the utterance information extracted from the voice data of the user 3a by the voice recognition processing includes the question expression “why”. The reasoning service is requested to be executed by the inference system 11 using the reason question sentence acquisition as the firing condition of the reason explanation service (step S55).

推論システム11は,サービス履歴データベース17のサービス履歴情報を参照して,現在実行されているサービスのなかから理由説明を求められているサービス「スイッチをオンにして,チャンネルをch_nに設定」を特定する(ステップS56)。   The inference system 11 refers to the service history information in the service history database 17 and identifies the service “switch on and set channel to ch_n” for which the reason is requested from the currently executed services. (Step S56).

対話ロボット2の対話制御部23は,特定したサービスのサービス履歴情報から,そのサービスの実行時の状況(ユーザ3a,3bがテレビの前に座っている状況,ユーザ3aの発話情報「お勧めの番組をつけて」)を取得する。さらに,分散環境行動データベース13のユーザ3aの固有情報のなかの嗜好情報(○○,△△が出演する番組を多く見る),現在放送中の番組情報などを取得する。そして,これらの情報をもとに,理由説明文「○○がでているからだよ」を生成してロボット発話情報とする(ステップS57)。   From the service history information of the identified service, the dialogue control unit 23 of the dialogue robot 2 determines the situation at the time of execution of the service (the situation in which the users 3a and 3b are sitting in front of the TV, the utterance information of the user 3a Turn on the program and get ")". Furthermore, preference information (viewing many programs in which XX and △ Δ appear) among the unique information of the user 3a in the distributed environment behavior database 13, program information currently being broadcast, and the like are acquired. Then, based on these pieces of information, a reason explanation sentence “because XX is out” is generated and used as robot utterance information (step S57).

そして,音声合成部22は,ロボット発話情報を音声合成処理して生成した音声データをユーザ3aへ向けて発話する(ステップS58)。   Then, the voice synthesizer 22 utters the voice data generated by performing the voice synthesis process on the robot utterance information to the user 3a (step S58).

さらに,生活支援ロボットシステム1は,実行した理由説明サービスのサービス履歴情報をサービス履歴データベース17に保存する(ステップS59)。   Furthermore, the life support robot system 1 stores the service history information of the executed reason explanation service in the service history database 17 (step S59).

また,ステップS58の処理において,対話ロボット2の発話に対してユーザ3aから何らかの応答があった場合には,生活支援ロボットシステム1は,これを発火条件としてユーザ評価のフィードバック処理を行い,その結果を分散環境行動データベース13の情報に反映させる(ステップS510)。   In the process of step S58, if there is any response from the user 3a to the utterance of the interactive robot 2, the life support robot system 1 performs a feedback process of user evaluation using this as an ignition condition, and the result Is reflected in the information of the distributed environment behavior database 13 (step S510).

以上,本発明をその実施の形態により説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。   While the present invention has been described above with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist thereof.

また,本発明は,コンピュータにより読み取られ実行される処理プログラムとして実施することができる。本発明を実現する処理プログラムは,コンピュータが読み取り可能な,可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができ,これらの記録媒体に記録して提供され,または,通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。   The present invention can also be implemented as a processing program that is read and executed by a computer. The processing program for realizing the present invention can be stored in an appropriate recording medium such as a portable medium memory, a semiconductor memory, and a hard disk that can be read by a computer. It is provided by transmission / reception using various communication networks via a communication interface.

本発明の対話システムの実施における構成例を示す図である。It is a figure which shows the structural example in implementation of the dialogue system of this invention. 生活支援ロボットシステムおよび対話ロボットの構成例を示す図である。It is a figure which shows the structural example of a life support robot system and a dialogue robot. 分散環境行動データベースの構成例を示す図である。It is a figure which shows the structural example of a distributed environment action database. 本発明の処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process of this invention. 対話システムの処理の流れの例を示す図である。It is a figure which shows the example of the flow of a process of a dialogue system. 理由説明サービスの具体例における処理の流れを示す図である。It is a figure which shows the flow of a process in the specific example of a reason explanation service. 理由説明サービスの具体例における処理の流れを示す図である。It is a figure which shows the flow of a process in the specific example of a reason explanation service.

符号の説明Explanation of symbols

1 生活支援ロボットシステム
11 推論システム
12 センサ
13 分散環境行動データベース
15 イベント検出装置
17 サービス履歴データベース
2 対話ロボット
21 音声認識部
22 音声合成部
23 対話制御部
24 対話戦略データベース
25 状況情報取得部
26 状況記憶部
27 知識データベース
29 実行要求部
3 ユーザ
4 アプライアンス
DESCRIPTION OF SYMBOLS 1 Life support robot system 11 Reasoning system 12 Sensor 13 Distributed environment action database 15 Event detection apparatus 17 Service history database 2 Dialogue robot 21 Speech recognition part 22 Speech synthesizer 23 Dialogue control part 24 Dialogue strategy database 25 Situation information acquisition part 26 Situation memory Part 27 Knowledge database 29 Execution request part 3 User 4 Appliance

Claims (9)

ユーザの生活支援のためのサービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御するサービスを提供する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記論理システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースとを備える生活支援ロボットシステム,ならびに前記生活支援ロボットシステムと協働する対話ロボットであって,音声データを音声認識処理して生成した発話情報をもとに発話の文脈を推論し,対話ロボット内で生成された発話情報を音声合成処理して生成した音声データを出力することによって,ユーザと音声対話する対話ロボットを備える対話システムにおいて,
前記生活支援ロボットシステムが提供したサービスの実行理由を説明する音声データを前記対話ロボットが発話する理由説明サービス処理方法であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況を推論し,前記ユーザの状況にもとづいて前記ユーザに提供するサービスを選択する処理過程と,
前記選択されたサービスを実行する制御情報を生成して対応するアプライアンスへ送信し,前記アプライアンスに当該サービスを実行させる処理過程と,
前記サービスについて,前記サービスの実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記対話ロボットが前記ユーザの音声データを検出した場合に,前記音声データを音声認識処理してユーザ発話情報に変換する処理過程と,
前記ユーザ発話情報の文脈を推論し,前記ユーザ発話情報が実行されたサービスの理由質問であると推論した場合に,前記ユーザ発話情報をもとに,前記サービス履歴情報データベースから前記質問の対象となるサービスを特定する処理過程と,
前記特定したサービスのサービス履歴情報からサービス実行時の状況を取得し,前記状況をもとに前記サービス実行の理由説明を生成する処理過程と,
前記理由説明を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理方法。
In order to autonomously control a plurality of appliances that perform services for supporting users' lives, the environment in the space and user behavior are inferred based on sensor information measured in a predetermined space. An inference system for providing a service for controlling the appliance, a distributed environment action database for storing environment information and action information as inference results by the inference system, and a service history for storing history information of services provided by the logical system A life support robot system including an information database, and a dialog robot that cooperates with the life support robot system, inferring the context of the utterance based on the utterance information generated by voice recognition processing of voice data, and dialog Speech data generated by speech synthesis processing of speech information generated in the robot By force, in an interactive system with an interactive robot for users and voice interaction,
A reason explanation service processing method in which the interactive robot speaks voice data explaining a reason for executing a service provided by the life support robot system,
A process of inferring a user's situation from environmental information and action information stored in the distributed environment action database, and selecting a service to be provided to the user based on the user's situation;
A process of generating control information for executing the selected service and transmitting it to the corresponding appliance, causing the appliance to execute the service;
For the service, a process of storing service history information including information on the status of execution of the service in the service history information database;
A process of converting the voice data into user utterance information by performing voice recognition processing when the interactive robot detects the voice data of the user;
When the context of the user utterance information is inferred and the user utterance information is inferred to be a reason for a service executed, based on the user utterance information, the target of the question is retrieved from the service history information database. A process that identifies the service
A process of obtaining a service execution status from the service history information of the identified service and generating a description of the reason for the service execution based on the status;
A reason explanation service processing method using a dialog robot, comprising: a process of uttering voice data generated by voice synthesis processing of the reason explanation from the dialog robot.
前記対話ロボットが前記理由説明の音声データを発話した際に,前記理由説明に対するユーザの反応を検出する処理過程と,
前記検出したユーザの反応を用いて,前記理由説明の対象であるサービスについてのユーザ評価を学習し,前記学習結果をもとに前記分散環境行動データベースに蓄積した情報を修正する処理過程とを備える
ことを特徴とする請求項1記載の対話ロボットを用いた理由説明サービス処理方法。
A process of detecting a user response to the reason explanation when the dialogue robot utters the voice data of the reason explanation;
Using the detected user's reaction, learning a user evaluation of the service for which the reason is explained, and a process of correcting information accumulated in the distributed environment behavior database based on the learning result. The reason explanation service processing method using the dialog robot according to claim 1.
前記サービスの実行後の所定の期間内に,前記ユーザが発話した音声データから生成されたユーザ発話情報が理由質問であるか否かを判定する処理過程と,
前記所定の期間内に,前記理由質問であるユーザ発話情報を取得できなかった場合に,前記対話ロボット内で理由質問の発話を促す理由質問催促を生成する処理過程と,
前記理由質問催促を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを備える
ことを特徴とする請求項1記載の対話ロボットを用いた理由説明サービス処理方法。
A process of determining whether user utterance information generated from voice data uttered by the user is a reason question within a predetermined period after execution of the service;
A process of generating a reason question prompt for prompting the reason question in the dialogue robot when the user utterance information that is the reason question cannot be acquired within the predetermined period;
The reason explanation service processing method using the interactive robot according to claim 1, further comprising: a process of uttering voice data generated by voice synthesis processing of the reason question prompting from the dialog robot.
ユーザの生活支援のためのサービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御するサービスを提供する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記論理システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースとを備える生活支援ロボットシステム,ならびに前記生活支援ロボットシステムと協働する対話ロボットであって,音声データを音声認識処理して生成した発話情報をもとに発話の文脈を推論し,対話ロボット内で生成された発話情報を音声合成処理して生成した音声データを出力することによって,ユーザと音声対話する対話ロボットを備える対話システムにおいて,
前記生活支援ロボットシステムが提供したサービスの実行理由を説明する音声データを前記対話ロボットが発話する理由説明サービス処理装置であって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況を推論し,前記ユーザの状況にもとづいて前記ユーザに提供するサービスを選択し,前記選択したサービスを実行する制御情報を生成して対応するアプライアンスへ送信し,前記アプライアンスに当該サービスを実行させるサービス判定手段と,
前記サービスについて,前記サービスの実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積するサービス履歴情報蓄積手段と,
前記対話ロボットが前記ユーザの音声データを検出した場合に,前記音声データを音声認識処理してユーザ発話情報に変換し,前記ユーザ発話情報の文脈を推論し,前記ユーザ発話情報が,実行されたサービスの理由質問であると推論した場合に,前記ユーザ発話情報をもとに,前記サービス履歴情報データベースから前記質問の対象となるサービスを特定するサービス特定手段と,
前記特定したサービスのサービス履歴情報からサービス実行時の状況を取得し,前記状況をもとに前記サービス実行の理由説明を生成し,前記理由説明を音声合成処理して生成した音声データを,前記対話ロボットから発話する対話制御手段とを備える
ことを特徴とする対話ロボットを用いた理由説明サービス処理装置。
In order to autonomously control a plurality of appliances that perform services for supporting users' lives, the environment in the space and user behavior are inferred based on sensor information measured in a predetermined space. An inference system for providing a service for controlling the appliance, a distributed environment action database for storing environment information and action information as inference results by the inference system, and a service history for storing history information of services provided by the logical system A life support robot system including an information database, and a dialog robot that cooperates with the life support robot system, inferring the context of the utterance based on the utterance information generated by voice recognition processing of voice data, and dialog Speech data generated by speech synthesis processing of speech information generated in the robot By force, in an interactive system with an interactive robot for users and voice interaction,
A reason explanation service processing device for the conversation robot to utter speech data explaining the reason for execution of the service provided by the life support robot system,
Inferring the user's situation from the environmental information and behavior information stored in the distributed environmental behavior database, selecting a service to be provided to the user based on the user's situation, and generating control information for executing the selected service A service determination means for transmitting to the corresponding appliance and causing the appliance to execute the service;
Service history information storage means for storing, in the service history information database, service history information including information related to the service execution status for the service;
When the interactive robot detects the voice data of the user, the voice data is subjected to voice recognition processing and converted into user utterance information, the context of the user utterance information is inferred, and the user utterance information is executed. A service specifying means for specifying a service that is a target of the question from the service history information database based on the user utterance information when inferring that the question is a service reason question;
Obtaining a service execution status from the service history information of the identified service, generating a description of the reason for executing the service based on the status, and generating voice data generated by performing speech synthesis on the reason description, A reason explanation service processing apparatus using a dialog robot, comprising: a dialog control means for speaking from the dialog robot.
前記対話ロボットが前記理由説明の音声データを発話した際に,前記理由説明に対するユーザの反応を検出し,前記検出したユーザの反応を用いて,前記理由説明の対象であるサービスについてのユーザ評価を学習し,前記学習結果をもとに前記分散環境行動データベースに蓄積した情報を修正するユーザ評価フィードバック手段とを備える
ことを特徴とする請求項4記載の対話ロボットを用いた理由説明サービス処理装置。
When the dialogue robot utters the voice data of the reason explanation, the user's reaction to the reason explanation is detected, and the user evaluation of the service that is the object of the reason explanation is performed using the detected user reaction. The reason explanation service processing apparatus using the interactive robot according to claim 4, further comprising user evaluation feedback means for learning and correcting information accumulated in the distributed environment behavior database based on the learning result.
前記対話制御手段は,前記サービスの実行後の所定の期間内に,前記ユーザが発話した音声データから生成されたユーザ発話情報が理由質問であるか否かを判定し,前記所定の期間内に,前記理由質問であるユーザ発話情報を取得できなかった場合に,前記対話ロボット内で理由質問の発話を促す理由質問催促を生成し,前記理由質問催促を音声合成処理して生成した音声データを,前記対話ロボットから発話する
ことを特徴とする請求項4記載の対話ロボットを用いた理由説明サービス処理装置。
The dialogue control means determines whether the user utterance information generated from the voice data uttered by the user is a reason question within a predetermined period after execution of the service, and within the predetermined period If the user utterance information that is the reason question cannot be acquired, the reason question prompting for prompting the reason question in the dialogue robot is generated, and the voice data generated by voice synthesis processing of the reason question prompt is generated. 5. The reason explanation service processing apparatus using a dialog robot according to claim 4, wherein the user speaks from the dialog robot.
ユーザの生活支援のためのサービスを実行する複数のアプライアンスを自律的に制御するために,所定の空間内で計測されたセンサ情報をもとに前記空間内の環境とユーザの行動とを推論してアプライアンスを制御するサービスを提供する推論システム,前記推論システムによる推論結果である環境情報および行動情報を蓄積する分散環境行動データベース,および前記論理システムによって提供されたサービスの履歴情報を蓄積するサービス履歴情報データベースとを備える生活支援ロボットシステム,ならびに前記生活支援ロボットシステムと協働する対話ロボットであって,音声データを音声認識処理して生成した発話情報をもとに発話の文脈を推論し,対話ロボット内で生成された発話情報を音声合成処理して生成した音声データを出力することによって,ユーザと音声対話する対話ロボットを備える対話システムにおいて,
前記対話システムに,前記生活支援ロボットシステムが提供したサービスの実行理由を説明する音声データを前記対話ロボットが発話する理由説明サービス処理プログラムであって,
前記分散環境行動データベースに蓄積された環境情報および行動情報からユーザの状況を推論し,前記ユーザの状況にもとづいて前記ユーザに提供するサービスを選択する処理過程と,
前記選択されたサービスを実行する制御情報を生成して対応するアプライアンスへ送信し,前記アプライアンスに当該サービスを実行させる処理過程と,
前記サービスについて,前記サービスの実行時の状況に関する情報を含むサービス履歴情報を前記サービス履歴情報データベースに蓄積する処理過程と,
前記対話ロボットが前記ユーザの音声データを検出した場合に,前記音声データを音声認識処理してユーザ発話情報に変換する処理過程と,
前記ユーザ発話情報の文脈を推論し,前記ユーザ発話情報が,実行されたサービスの理由質問であると推論した場合に,前記ユーザ発話情報をもとに,前記サービス履歴情報データベースから前記質問の対象となるサービスを特定する処理過程と,
前記特定したサービスのサービス履歴情報からサービス実行時の状況を取得し,前記状況をもとに前記サービス実行の理由説明を生成する処理過程と,
前記理由説明を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを
実行させるための対話ロボットを用いた理由説明サービス処理プログラム。
In order to autonomously control a plurality of appliances that perform services for supporting users' lives, the environment in the space and user behavior are inferred based on sensor information measured in a predetermined space. An inference system for providing a service for controlling the appliance, a distributed environment action database for storing environment information and action information as inference results by the inference system, and a service history for storing history information of services provided by the logical system A life support robot system including an information database, and a dialog robot that cooperates with the life support robot system, inferring the context of the utterance based on the utterance information generated by voice recognition processing of voice data, and dialog Speech data generated by speech synthesis processing of speech information generated in the robot By force, in an interactive system with an interactive robot for users and voice interaction,
A reason explanation service processing program in which the dialogue robot utters voice data explaining the reason for execution of the service provided by the life support robot system to the dialogue system,
A process of inferring a user's situation from environmental information and action information stored in the distributed environment action database, and selecting a service to be provided to the user based on the user's situation;
A process of generating control information for executing the selected service and transmitting it to the corresponding appliance, causing the appliance to execute the service;
For the service, a process of storing service history information including information on the status of execution of the service in the service history information database;
A process of converting the voice data into user utterance information by performing voice recognition processing when the interactive robot detects the voice data of the user;
When the context of the user utterance information is inferred and the user utterance information is inferred to be a reason question of the executed service, the target of the question is retrieved from the service history information database based on the user utterance information. The process of identifying the service to be
A process of obtaining a service execution status from the service history information of the identified service and generating a description of the reason for the service execution based on the status;
A reason explanation service processing program using a dialogue robot for executing voice data generated by voice synthesis processing of the reason explanation from the dialogue robot.
前記対話システムに,
前記対話ロボットが前記理由説明の音声データを発話した際に,前記理由説明に対するユーザの反応を検出する処理過程と,
前記検出したユーザの反応を用いて,前記理由説明の対象であるサービスについてのユーザ評価を学習し,前記学習結果をもとに前記分散環境行動データベースに蓄積した情報を修正する処理過程とを
実行させるための請求項7記載の対話ロボットを用いた理由説明サービス処理プログラム。
In the dialogue system,
A process of detecting a user response to the reason explanation when the dialogue robot utters the voice data of the reason explanation;
A process of learning user evaluation of the service for which the reason is explained using the detected user reaction, and correcting information accumulated in the distributed environment behavior database based on the learning result is executed. A reason explanation service processing program using the dialogue robot according to claim 7.
前記対話システムに,
前記サービスの実行後の所定の期間内に,前記ユーザが発話した音声データから生成されたユーザ発話情報が理由質問であるか否かを判定する処理過程と,
前記所定の期間内に,前記理由質問であるユーザ発話情報を取得できなかった場合に,前記対話ロボット内で理由質問の発話を促す理由質問催促を生成する処理過程と,
前記理由質問催促を音声合成処理して生成した音声データを,前記対話ロボットから発話する処理過程とを
実行させるための請求項7記載の対話ロボットを用いた理由説明サービス処理プログラム。
In the dialogue system,
A process of determining whether user utterance information generated from voice data uttered by the user is a reason question within a predetermined period after execution of the service;
A process of generating a reason question prompt for prompting the reason question in the dialogue robot when the user utterance information that is the reason question cannot be acquired within the predetermined period;
The reason explanation service processing program using a dialog robot according to claim 7, wherein the voice data generated by voice synthesis processing of the reason question prompting is executed by a process of speaking from the dialog robot.
JP2005191520A 2005-06-30 2005-06-30 Reason explanation service processing method and apparatus using dialog robot, and program thereof Pending JP2007011674A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005191520A JP2007011674A (en) 2005-06-30 2005-06-30 Reason explanation service processing method and apparatus using dialog robot, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005191520A JP2007011674A (en) 2005-06-30 2005-06-30 Reason explanation service processing method and apparatus using dialog robot, and program thereof

Publications (1)

Publication Number Publication Date
JP2007011674A true JP2007011674A (en) 2007-01-18

Family

ID=37750089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005191520A Pending JP2007011674A (en) 2005-06-30 2005-06-30 Reason explanation service processing method and apparatus using dialog robot, and program thereof

Country Status (1)

Country Link
JP (1) JP2007011674A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323233A (en) * 2006-05-31 2007-12-13 National Institute Of Information & Communication Technology Reason explanation service processing method and apparatus using dialog robot, and program thereof
US8600918B2 (en) 2010-12-13 2013-12-03 Kabushiki Kaisha Toshiba Action history search device
JP2015144398A (en) * 2014-01-31 2015-08-06 シャープ株式会社 Speech control device, speech device, speech control system, speech control method, speech device control method, and control program
JP2020047007A (en) * 2018-09-19 2020-03-26 株式会社日立製作所 Business analysis server, business analysis method, and business analysis program
WO2021009989A1 (en) * 2019-07-12 2021-01-21 ソニー株式会社 Artificial intelligence information processing device, artificial intelligence information processing method, and artificial intelligence function-mounted display device
WO2021205742A1 (en) * 2020-04-08 2021-10-14 ソニーグループ株式会社 Information processing device, information processing method, and computer program
JP2023055910A (en) * 2018-03-26 2023-04-18 カシオ計算機株式会社 Robot, dialogue system, information processing method, and program
CN116711283A (en) * 2021-07-29 2023-09-05 谷歌有限责任公司 Provide deterministic reasoning about fulfilling assistant's orders
JP2024508209A (en) * 2021-07-29 2024-02-26 グーグル エルエルシー Providing a specific rationale for the realization of assistant commands
JP2024174859A (en) * 2023-06-30 2024-12-17 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Data generation method and device, equipment and medium
US12223955B2 (en) 2021-07-29 2025-02-11 Google Llc Providing certain reasoning with respect to fulfillment of an assistant command

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63279324A (en) * 1987-05-11 1988-11-16 Hitachi Ltd Reasoning process explanation method
JPH10240749A (en) * 1997-02-24 1998-09-11 Nec Corp Information filtering method, device therefor and recording medium recorded with information filtering program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63279324A (en) * 1987-05-11 1988-11-16 Hitachi Ltd Reasoning process explanation method
JPH10240749A (en) * 1997-02-24 1998-09-11 Nec Corp Information filtering method, device therefor and recording medium recorded with information filtering program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323233A (en) * 2006-05-31 2007-12-13 National Institute Of Information & Communication Technology Reason explanation service processing method and apparatus using dialog robot, and program thereof
US8600918B2 (en) 2010-12-13 2013-12-03 Kabushiki Kaisha Toshiba Action history search device
JP2015144398A (en) * 2014-01-31 2015-08-06 シャープ株式会社 Speech control device, speech device, speech control system, speech control method, speech device control method, and control program
JP2023055910A (en) * 2018-03-26 2023-04-18 カシオ計算機株式会社 Robot, dialogue system, information processing method, and program
JP7416295B2 (en) 2018-03-26 2024-01-17 カシオ計算機株式会社 Robots, dialogue systems, information processing methods and programs
JP2020047007A (en) * 2018-09-19 2020-03-26 株式会社日立製作所 Business analysis server, business analysis method, and business analysis program
WO2021009989A1 (en) * 2019-07-12 2021-01-21 ソニー株式会社 Artificial intelligence information processing device, artificial intelligence information processing method, and artificial intelligence function-mounted display device
JPWO2021205742A1 (en) * 2020-04-08 2021-10-14
WO2021205742A1 (en) * 2020-04-08 2021-10-14 ソニーグループ株式会社 Information processing device, information processing method, and computer program
JP7563448B2 (en) 2020-04-08 2024-10-08 ソニーグループ株式会社 Information processing device, information processing method, and computer program
CN116711283A (en) * 2021-07-29 2023-09-05 谷歌有限责任公司 Provide deterministic reasoning about fulfilling assistant's orders
JP2024508209A (en) * 2021-07-29 2024-02-26 グーグル エルエルシー Providing a specific rationale for the realization of assistant commands
US12223955B2 (en) 2021-07-29 2025-02-11 Google Llc Providing certain reasoning with respect to fulfillment of an assistant command
JP7731989B2 (en) 2021-07-29 2025-09-01 グーグル エルエルシー Providing a specific rationale for implementing assistant commands
JP2024174859A (en) * 2023-06-30 2024-12-17 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Data generation method and device, equipment and medium

Similar Documents

Publication Publication Date Title
KR102551715B1 (en) Generating iot-based notification(s) and provisioning of command(s) to cause automatic rendering of the iot-based notification(s) by automated assistant client(s) of client device(s)
JP4370410B2 (en) Dialog system, dialog robot, program, and recording medium
CN106257355B (en) Equipment control method and controller
CN106297781B (en) Control method and controller
JP6053097B2 (en) Device operating system, device operating device, server, device operating method and program
CN115605949B (en) Simultaneous acoustic event detection across multiple assistant devices
JP7415952B2 (en) Response processing device and response processing method
US12164572B2 (en) Inferring semantic label(s) for assistant device(s) based on device-specific signal(s)
JP2007011674A (en) Reason explanation service processing method and apparatus using dialog robot, and program thereof
JP6400871B1 (en) Utterance control device, utterance control method, and utterance control program
JPWO2017208518A1 (en) Information processing device
CN115720659A (en) Inferring assistant actions by an assistant device based on ambient sensing
KR20230156929A (en) Robotic computing device with adaptive user interaction
JP6973380B2 (en) Information processing device and information processing method
JP2007323233A (en) Reason explanation service processing method and apparatus using dialog robot, and program thereof
US20220122600A1 (en) Information processing device and information processing method
JP6557376B1 (en) Output control device, output control method, and output control program
CN113314115A (en) Voice processing method of terminal equipment, terminal equipment and readable storage medium
US20230223019A1 (en) Information processing device, information processing method, and program
JP7452528B2 (en) Information processing device and information processing method
EP4184309A1 (en) Display device
JP2019164321A (en) Speech control apparatus, speech control method, and speech control program
JP7519869B2 (en) Information provision system and program
JP2010072704A (en) Interface device and input method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120117