JP2021117580A - Information processing equipment and programs - Google Patents
Information processing equipment and programs Download PDFInfo
- Publication number
- JP2021117580A JP2021117580A JP2020009102A JP2020009102A JP2021117580A JP 2021117580 A JP2021117580 A JP 2021117580A JP 2020009102 A JP2020009102 A JP 2020009102A JP 2020009102 A JP2020009102 A JP 2020009102A JP 2021117580 A JP2021117580 A JP 2021117580A
- Authority
- JP
- Japan
- Prior art keywords
- information
- date
- event
- sentence
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザのごとの事情に合わせた会話文の提供を可能とする情報処理装置、及びプログラムを提供する。
【解決手段】日時情報に関連付けられた、ユーザのイベントを特定するイベント特定情報を取得し、当該日時情報が表す日時より後の日時に発話する処理において、当該イベント特定情報に関連する関連会話文を生成する情報処理装置である。
【選択図】図1
PROBLEM TO BE SOLVED: To provide an information processing device and a program capable of providing a conversational sentence according to a situation of each user.
SOLUTION: In a process of acquiring event specific information that identifies a user's event associated with date and time information and speaking at a date and time after the date and time represented by the date and time information, a related conversational sentence related to the event specific information. It is an information processing device that generates.
[Selection diagram] Fig. 1
Description
本発明は、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing device and a program.
近年では、ユーザの予定を管理するツールが種々開発されている。こうしたツールのうちには、ユーザからの会話に含まれる所定のキーワードに基づいて予定を登録して管理する技術が知られている(例えば、非特許文献1等などを参照)。 In recent years, various tools for managing user schedules have been developed. Among such tools, there is known a technique for registering and managing schedules based on predetermined keywords included in conversations from users (see, for example, Non-Patent Document 1 and the like).
しかしながら、上記従来のツールでは、会話的な文でユーザとのやりとりをしていながら、将来の予定を管理するだけで、その予定に関わる会話文の提供を行うなどの活用ができておらず、ユーザごとの事情に合わせた情報提供が十分でない。 However, the above-mentioned conventional tools cannot be utilized such as providing conversational sentences related to the future schedule only by managing the future schedule while communicating with the user by conversational sentences. Insufficient information is provided according to the circumstances of each user.
本発明は上記実情に鑑みて為されたもので、ユーザごとの事情に合わせた会話文の提供を可能とする情報処理装置、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and one of its purposes is to provide an information processing device and a program capable of providing conversational sentences according to the circumstances of each user.
上記従来例の問題点を解決する本発明の一態様は、情報処理装置であって、日時情報に関連付けられた、ユーザのイベントを特定するイベント特定情報を取得する取得手段と、前記日時情報が表す日時より後の日時に発話する処理において、当該イベント特定情報に関連する関連会話文を生成する会話文生成手段と、を備えることとしたものである。 One aspect of the present invention that solves the problems of the above-mentioned conventional example is an information processing device, in which an acquisition means for acquiring event specific information that identifies a user's event associated with date and time information and the date and time information are used. In the process of uttering at a date and time after the represented date and time, it is provided with a conversation sentence generation means for generating a related conversation sentence related to the event specific information.
本発明によると、ユーザごとの事情に合わせた会話文の提供が可能となる。 According to the present invention, it is possible to provide a conversational sentence according to the circumstances of each user.
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理システム1は、図1に例示するように、情報処理装置としてのサーバ10と、当該サーバ10にネットワーク等の通信手段を介して通信可能に接続された端末装置20とを含んで構成される。
Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the information processing system 1 according to the embodiment of the present invention includes a
ここでサーバ10は、図1に示したように、制御部11と、記憶部12と、通信部13とを含んで構成される。また、端末装置20は、ロボットであり、図2に例示するように、脚部21と、本体部22とを少なくとも含み、本体部22に、制御部31と、記憶部32と、センサ部33と、表示部34と、音声出力部35と、通信部36と、駆動部37とを収納している。また脚部21と本体部22とは、少なくとも1軸まわりに回転可能なアクチュエータを介して連結されており、脚部21に対して本体部22の向きを回動可能となっている。
Here, as shown in FIG. 1, the
サーバ10の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、端末装置20からリクエスト情報を受け入れる。またこの制御部11は、当該受け入れたリクエスト情報に基づく処理を実行する。例えば制御部11は、当該処理の一つとして、端末装置20にて実行されるアクションを指示するアクション指示と、端末装置20にて発声される音声の内容を表す文字列情報とを含むアクション情報を、上記リクエスト情報の送信元である端末装置20へ送信する。
The
また、本実施の形態の一例では、この制御部11は、日時を表す日時情報に関連付けられた、ユーザの、「デート」などのイベントを表す情報(以下、イベント特定情報と呼ぶ)を取得し、当該日時情報が表す日時より後の日時に、端末装置20にて発声される音声を、端末装置20へ送出する処理を実行する過程で、上記取得したイベント特定情報に関連する関連会話文を生成する。この制御部11の詳しい処理の内容については、後に説明する。
Further, in an example of the present embodiment, the
記憶部12は、ディスクデバイスまたはメモリデバイスであり、制御部11によって実行されるプログラムを保持する。この記憶部12は、また、制御部11のワークメモリとしても動作する。本実施の形態の一例では、この記憶部12には、端末装置20への指示を生成するための情報が格納されていてもよい。例えば、この記憶部12には端末装置20にて発話させるための会話文の候補を蓄積した会話文キューを保持する。この会話文キューの内容については後に述べる。
The
通信部13は、ネットワークインタフェース等であり、制御部11から入力される指示に従い、ネットワークを介して端末装置20宛に種々の情報を送出する。またこの通信部13は、ネットワークを介して受信した情報を、制御部11に出力する。
The
端末装置20の制御部31は、CPU等のプログラム制御デバイスであり、記憶部32に格納されたプログラムに従って動作する。本実施の形態では、この制御部31は、所定のタイミングで、サーバ10に対して後に説明する、端末装置20に固有な機器識別情報とともにリクエスト情報を送出する。
The
本実施の形態の一例では、端末装置20の制御部31は、後に説明するセンサ部33がユーザの音声の入力を受け入れると、当該入力された音声を文字列情報に変換する。この処理は、広く知られた音声認識の処理を用いることができ、制御部31は例えば音声認識処理を実行する音声認識サーバに入力された音声の情報を送出し、認識した文字列情報を受信することでこの処理を実行してもよい。
In an example of the present embodiment, when the
また制御部31は、ユーザにより音声が入力されたことを契機(トリガ)として、サーバ10に対してリクエスト情報を送出する。このリクエスト情報には、トリガを特定する情報(例えばユーザにより音声が入力された旨の情報)と、サーバ10での処理に必要な情報、例えば、ここではユーザが入力した音声の認識結果である文字列情報とを含む。
Further, the
すなわち制御部31は、予め定められたトリガが発生したと判断すると、サーバ10での処理に必要な情報を収集して、当該トリガを特定する情報とともに、当該収集した情報を含むリクエスト情報をサーバ10へ送出することとなる。このトリガは、先の例のように、ユーザにより音声が入力されたことのほか、所定の時刻になった、など、任意に定め得る。この制御部31の詳しい動作の内容についても後に説明する。
That is, when the
記憶部32は、メモリデバイス等であり、制御部31によって実行されるプログラムを保持する。この記憶部32は、また、制御部31のワークメモリとしても動作する。
The
本実施の形態では、この記憶部32には、上記トリガと、サーバ10に送出するべき情報を特定する情報等とを関連付けた設定情報が格納されていてもよい。この設定情報については後に具体的な例を挙げて説明する。またこの記憶部32には、端末装置20に固有に設定された機器識別情報が格納されている。
In the present embodiment, the
さらに、本実施の形態のある例では、この記憶部32は、表示部34に表示するべきアニメーションの画像データを格納している。具体的に記憶部32は、笑顔の目の画像データ、涙の流れるアニメーションの目の画像データ…など目のアニメーションの画像データや、笑った状態で閉じた口の画像データ、泣いている状態での閉じた口の画像データ、発声中の口のアニメーションの画像データ…など、口のアニメーションの画像データ…といったように、キャラクタの表情を表す各部の複数の画像データを格納していてもよい。
Further, in an example of the present embodiment, the
センサ部33は、少なくとも音声センサであるマイクを含む。またこのセンサ部33は、タッチセンサや、加速度センサ等を含んでもよい。このセンサ部33は、各センサで検出した音声信号や、ユーザが触れた位置を表す情報、加速度の情報等を、制御部31に出力する。
The
表示部34は、液晶ディスプレイ等であり、制御部31から入力される指示に従って画像データを表示する。本実施の形態の一例では、表示部34は、目や口の画像データを用いて、キャラクタの表情を表示する。音声出力部35は、スピーカー等であり、制御部31から入力される音声信号に従って音声を鳴動する。
The
通信部36は、ネットワークインタフェースを含む。この通信部36は、無線または有線にてネットワークを介してサーバ10との間で情報を送受する。具体的に通信部36は、制御部31から入力される指示に従って、サーバ10に対してリクエスト情報等を送出する。また、この通信部36は、サーバ10から受信した情報を制御部31に出力する。
The
駆動部37は、制御部31から入力される指示に従い、脚部21に対して本体部22を回転するようアクチュエータを駆動する。
The
次に、本実施の形態のサーバ10の制御部11の動作について説明する。本実施の形態では、このサーバ10の制御部11は、図3に例示するように、受信部41と、イベント管理部42と、イベント情報取得部43と、会話文生成部44と、会話履歴管理部45と、アクション情報生成部46と、指示送信部47とを含んで構成される。
Next, the operation of the
受信部41は、端末装置20からリクエスト情報と、機器識別情報とを受信する。このリクエスト情報には、端末装置20で実行するべきアクションの要求の原因(トリガ)を特定する情報を含む。トリガの種類については後述するが、例えばユーザによる音声の入力等がその一例となる。ユーザによる音声入力があったとのトリガに基づく上記リクエスト情報には、当該トリガを特定する情報とともに、ユーザにより入力された音声の内容を表す情報が含まれてもよい。ここでユーザにより入力された音声の内容を表す情報は、音声を認識した結果である文字列情報でよい。
The receiving
受信部41は、ここで受け入れたリクエスト情報に含まれる、トリガを特定する情報や、ユーザにより入力された音声の内容を表す文字列情報等を、イベント情報取得部43と、アクション情報生成部46とに出力する。
The receiving
イベント管理部42は、ユーザごとのイベント情報を記憶部12に格納して管理する。ここでイベント情報は、ユーザの予定であり、日時情報と、イベントを特定するイベント特定情報とを関連付けたものである。
The
イベント情報取得部43は、ユーザにより入力された音声の内容を表す文字列情報の入力を、受信部41から受け入れる。そしてイベント情報取得部43は、当該受け入れた文字列情報がイベントに関わる情報であるか否かを判断する。具体的に本実施の形態のイベント情報取得部43は、当該文字列情報と、予め定められたイベントに関わる情報のパターンとを比較する。
The event
ここでパターンは、「明日」や「明後日」、「来週」など予め定めた日時を表す語(日時関連語)に合致する部分と、「デート」や「仕事」、「美容院」など、イベントに関連する語(イベント関連語)に合致する部分とを含む。このパターンは例えば正規表現の文字列で表すことができ、例えば、「[明日|明後日|週末|来週][D+日][W+曜][日][は|に]W+[が][ある|なん]*」などと設定される。 Here, the pattern is the part that matches the predetermined date and time words (date and time related words) such as "tomorrow", "the day after tomorrow", and "next week", and the event such as "date", "work", and "beauty salon". Includes parts that match words related to (event-related words). This pattern can be represented, for example, by a regular expression string, for example, "[Tomorrow | The day after tomorrow | Weekend | Next week] [D + day] [W + day] [Sun] [ha | ni] W + [ga] [is | What] * ”is set.
ここで上記の例では、「*」は、空白を含む任意の文字に合致する正規表現であり、「+」は、一文字以上の直前の文字で指定された種類の文字に合致する正規表現であり、[X|Y|…]は、X,Y…のいずれかに合致する正規表現であるものとする。また[Z]は、存在してもしなくてもよいパターンを意味し、「D」は数字に、「W」は文字にそれぞれ合致するものとする。従って上記の文字列は、
「明日、デートがあるんだ」や、
「来週の月曜日は試験だよ」
などの文字列情報に合致する。そして、上記パターンにおいて、
「[明日|明後日|週末|来週][D+日][W+曜][日]」
の部分が日時関連語に、
「W+[が][ある|なん]」のうち、先頭の「W+」の(任意の文字に合致する)部分
がイベント関連語にそれぞれ相当する。
Here, in the above example, "*" is a regular expression that matches any character including spaces, and "+" is a regular expression that matches the type of character specified by the character immediately before one or more characters. Yes, [X | Y | ...] is a regular expression that matches any of X, Y ... Further, [Z] means a pattern that may or may not exist, and "D" corresponds to a number and "W" corresponds to a character. Therefore, the above string is
"I have a date tomorrow,"
"Next Monday is the exam."
Matches character string information such as. And in the above pattern
"[Tomorrow | The day after tomorrow | Weekend | Next week] [D + day] [W + day] [Sun]"
Part is a date and time related word,
Of "W + [ga] [aru | what]", the part of "W +" (matching any character) at the beginning corresponds to each event-related word.
またこのパターンは一つに限られず、複数あってもよい。例えば上記パターンのほか、「W+[が][ある|なん]*[明日|明後日|週末|来週][D+日][W+曜][日]」などといったパターンを設定しておくこととしてもよい。この例は「ライブがあるんだよね、明日」のように、先に例示したパターンには合致しない例に合致するものであり、イベント情報取得部43はユーザにより入力された音声の内容を表す文字列情報が上記の例のような、イベントに関わる情報のパターン(複数ある場合はそのいずれか)に合致する場合に、受け入れた文字列情報がイベントに関わる情報であると判断する。
Further, this pattern is not limited to one, and may be plural. For example, in addition to the above pattern, a pattern such as "W + [ga] [is | what] * [tomorrow | the day after tomorrow | weekend | next week] [D + day] [W + day] [day]" may be set. .. This example matches an example that does not match the pattern illustrated above, such as "There is a live, tomorrow", and the event
すなわちイベント情報取得部43は、ユーザにより入力された音声の内容を表す文字列情報が上記の例のような、イベントに関わる情報のパターンに合致し、イベントに関わる情報であると判断した場合は、当該文字列情報から日時情報と、イベントを特定するイベント特定情報とを取り出す。具体的に、文字列情報が「明日、デートがあるんだ」である場合は、イベント情報取得部43は、処理を実行している日時の次の日の日時情報を得る。
That is, when the event
ここで日時情報は、上記パターンにより見出された日時関連語に基づいて推定される、イベントが発生する日時を表す情報である。日時関連語等から日時情報を推定する処理については、広く知られた技術を採用できるので、ここでの詳しい説明は省略する。 Here, the date and time information is information representing the date and time when the event occurs, which is estimated based on the date and time related words found by the above pattern. As for the process of estimating the date and time information from the date and time related words, a widely known technique can be adopted, so detailed description here will be omitted.
例えば処理が12月15日に行われている場合、イベント情報取得部43は、その日から見て「明日」である12月16日という日時情報を取得する。また、イベントを特定するイベント特定情報として、イベント情報取得部43は、上記文字列情報から「デート」を抽出する。このイベント特定情報の抽出の方法も、広く知られている方法を採用できる。
For example, when the processing is performed on December 15, the event
イベント情報取得部43は、ここで取り出した、日時情報と、イベントを特定するイベント特定情報とを会話文生成部44に出力する。またイベント情報取得部43は、ユーザにより入力された音声の内容を表す文字列情報が、イベントに関わる情報のパターン(複数ある場合はそのいずれにも)に合致しない場合は、処理を中断する。
The event
会話文生成部44は、イベント情報取得部43が出力する日時情報と、イベント特定情報とを受けて、会話文を生成する。具体的にこの会話文生成部44は、イベント情報取得部43が出力する日時より後の日時(発話期間)を定める。
The conversation
この発話期間の決定は、例えば次のようにして行う。本実施の形態のある例では、サーバ10は、日数候補情報として、予め、「1日」、「2日」、「1週間」など予め定めた日数候補と、日数候補ごとに定めた発話期間の初日から末日までの日数(発話期間長)と、イベントの発生日を特定する語(日時指示語と呼ぶ)とを互いに関連付けた日数データテーブルを、記憶部12に格納しているものとする。
The utterance period is determined, for example, as follows. In an example of this embodiment, the
会話文生成部44は、イベント情報取得部43が出力する日時に対して、上記日数データテーブルに含まれる日数候補のうち一つをランダムに選択して加算して、発話期間の初日を定める。また、会話文生成部44は、この発話期間の初日に、上記選択した日数候補に関連付けられた発話期間長を加算して発話期間の末日を定める。
The conversation
一例として、イベント情報取得部43が出力する日時が「12月15日」であるとき、日数候補のうち「2日」(関連付けられた発話期間長を「0日」とする)を選択したとすると、会話文生成部44は、発話期間の初日を「12月17日」、末日を「12月17日」とする。
As an example, when the date and time output by the event
また会話文生成部44は、選択した日数候補に関連付けられた日時指示語と、イベント情報取得部43が出力するイベント特定情報とを用いて、会話文を生成する。例えば会話文生成部44は、予め定められた会話文パターンの候補である、
「そういえば、<日時指示語>の<イベント特定情報>は、どうだった?」
「あ。<日時指示語>は、<イベント特定情報>だったんだよね?」
…
などといった候補のうちから一つをランダムに選択して、日時指示とイベント特定情報とを、当該選択した会話文パターンに差し込む。
Further, the conversation
"By the way, how was the <event specific information> of the <date and time demonstrative>?"
"Ah. The <date and time demonstrative> was <event specific information>, right?"
...
One of the candidates such as, etc. is randomly selected, and the date and time instruction and the event specific information are inserted into the selected conversation sentence pattern.
これにより会話文生成部44は、例えば、
「そういえば、一昨日のデートは、どうだった?」
のような会話文を生成する。
As a result, the conversation
"By the way, how was your date the day before yesterday?"
Generate a conversational sentence like.
会話文生成部44は、ここで生成した会話文を上記決定した発話期間を発話条件として関連付けて、記憶部12に格納した会話文キューに蓄積する。すなわちサーバ10の記憶部12に格納される会話文キューは、ここでの例では、図4に例示するように、発話条件(C)と、会話文(D)とを関連付けて格納したものとなる。
The conversation
なお、発話条件は、上記の発話期間のほか、発話の時刻に係る条件や、発話時の気温等の条件が含まれてもよい。さらに発話条件は必ずしも必要でなく、定めなくてもよい。発話条件が定められない場合(発話条件なしの場合)、当該発話条件の定めのない会話文は、常時発話可能な会話文となる。 In addition to the above-mentioned utterance period, the utterance conditions may include conditions related to the utterance time, conditions such as the temperature at the time of utterance, and the like. Furthermore, the utterance conditions are not always necessary and need not be set. When the utterance condition is not defined (when there is no utterance condition), the conversational sentence without the utterance condition is a conversational sentence that can be spoken at all times.
また本実施の形態では、この会話文キューには、会話文生成部44が生成した会話文のほかにも、会話文が予め登録されていてもよい。このように、予め登録された会話文は例えば、
・最高気温が35度以上だった、かつ、時刻が18時以降であるとの発話条件に関連付けて、「今日は、暑かったね」
・時刻が午前2時から午前4時の間であるとの発話条件に関連付けて、「そろそろ寝ない?」
などといった例があり得る。
Further, in the present embodiment, in addition to the conversational sentence generated by the conversational
・ In relation to the utterance condition that the maximum temperature was 35 degrees or higher and the time was after 18:00, "It was hot today."
・ In relation to the utterance condition that the time is between 2:00 am and 4:00 am, "Why don't you go to bed soon?"
There can be examples such as.
会話履歴管理部45は、ユーザごとに、受信部41が受け入れた、当該ユーザにより入力された音声の内容と、後に説明するアクション情報生成部46が指示した、当該ユーザの端末装置20により発話される会話文の内容とを順次記録する。つまり、この会話履歴管理部45は、ユーザと端末装置20との間での会話の履歴を記録することとなる。
The conversation
アクション情報生成部46は、受信部41から入力される情報に基づいて、リクエストを送出した端末装置20が実行するべきアクションを決定し、当該アクションを指示する情報(アクション指示)と、アクションの実行に必要となる情報(以下、パラメータ情報と呼ぶ)とを含むアクション情報を生成して指示送信部47に出力する。
The action
本実施の形態の一例では、サーバ10の記憶部12には、端末装置20への指示を生成するための情報として、図5に例示するように、トリガを特定する情報(T)と、ユーザにより入力された音声の内容を表す情報と比較する情報(V、以下、比較文字列情報と呼ぶ。ただしこの比較文字列情報は、トリガの種類によってはなくてもよい)と、アクション情報の生成のためにサーバ10が実行する処理を表す情報(S)とを互いに関連づけたレコード(R)を少なくとも一つ含む、アクションデータベースが格納されているものとする。
In an example of this embodiment, the
アクション情報生成部46は、受信部41から入力されるトリガを特定する情報(T)に関連付けられた、比較文字列情報(V、あれば)とアクション情報の生成のためにサーバ10が実行するべき処理を表す情報とを取得する。
The action
そしてアクション情報生成部46は、比較文字列情報が取得されれば(トリガを特定する情報に比較文字列情報が関連付けられていれば)、受信部41が出力する文字列情報と当該比較文字列情報とを比較する。そして、アクション情報生成部46は、受信部41が出力する文字列情報が比較文字列情報に一致していると判断すると、取得した情報が表す処理を実行して、アクション情報を生成する。
Then, if the comparison character string information is acquired (if the comparison character string information is associated with the information that identifies the trigger), the action
また、アクション情報生成部46は、比較文字列情報が取得されていなければ、上記取得した情報が表す処理を実行して、アクション情報を生成する。
If the comparison character string information has not been acquired, the action
具体的な例として、ここではアクションデータベースには、「ユーザによる音声入力があった」旨のトリガを特定する情報と、ユーザにより入力された音声の内容を表す情報と比較するべき比較文字列情報として「*ニュース[を|は]*[ない|教えて|読みあげて]*」などといった文字列の情報とに「ニュースの文字列情報を、インターネット上の所定のウェブサーバから取得し、当該文字列情報を読み上げるよう指示する」との情報を関連付けたレコードが記録されているものとする。 As a specific example, here, in the action database, the information that identifies the trigger that "there was a voice input by the user" and the comparison character string information that should be compared with the information that represents the content of the voice input by the user. In addition to the character string information such as "* news [o | ha] * [not | tell | read aloud] *", "news character string information is obtained from a predetermined web server on the Internet, and the relevant information is obtained. It is assumed that a record associated with the information "Instruct to read out the character string information" is recorded.
なお、この比較文字列情報も正規表現で表されているものとする。従って上記の文字列は、
「今日のニュースを教えて」や、
「何かニュースはない?」
といった文字列情報に合致することとなる。
It is assumed that this comparison character string information is also represented by a regular expression. Therefore, the above string is
"Tell me about today's news"
"Are there any news?"
It will match the character string information such as.
アクション情報生成部46は、例えば受信部41から「ユーザによる音声入力があった」旨のトリガを特定する情報と、ユーザにより入力された音声の内容を表す情報として「何かニュースはない?」といった文字列情報との入力を受け入れると、当該トリガを特定する情報を含むレコードをアクションデータベースから検索する。
For example, the action
ここではアクション情報生成部46は、上記のレコードをアクションデータベースから見出すこととなり、当該レコードに含まれる、比較文字列情報と、受け入れた文字列情報とを比較する。上記の例では受け入れた文字列情報「何かニュースはない?」が、比較文字列情報「*ニュース[を|は]*[ない|教えて|読みあげて]*」に合致すると判断されるので、アクション情報生成部46は、検索で見出した上記のレコードに含まれる、サーバ10が実行するべき処理を表す情報、例えば
「(ステップ1)ニュースの文字列情報を、インターネット上の所定のウェブサーバから取得する、
(ステップ2)当該文字列情報を読み上げる指示を生成
(ステップ3)読み上げのときに再生するアニメーション情報を表示させる指示を生成する」を取得して、この情報に従った処理を実行する。
Here, the action
(Step 2) Generate an instruction to read out the character string information (Step 3) Generate an instruction to display the animation information to be played at the time of reading out ”, and execute the process according to this information.
すなわちアクション情報生成部46は、この読み出した情報に従って、インターネット上の所定のウェブサーバからニュースの文字列情報を取得する。またアクション情報生成部46は、並列して行われるアクション処理の実行開始の時点で表示するべきアニメーションの画像データと、実行中に表示するべきアニメーションの画像データと、実行終了の時点で表示するべきアニメーションの画像データとをそれぞれ特定する情報(各画像データのファイル名でよい)を含むアニメーション情報の表示指示を生成する。
That is, the action
そしてこの例では、アクション情報生成部46は、アクション指示とパラメータ情報とを含んだアクション情報を生成して指示送信部47に出力する。ここでアクション指示には、文字列情報を読み上げるべき旨の指示と、アニメーション情報の表示指示とを含む。また、パラメータ情報には、上記取得した文字列情報と、アニメーションの画像データを特定する情報とを含む。
Then, in this example, the action
またここで、サーバ10が実行するべき処理を表す情報には「会話文の選択」の指示が含まれてもよい。このような指示が含まれる場合、アクション情報生成部46は、当該指示に従い、例えば次のような方法で会話文を選択する。
Further, here, the information representing the process to be executed by the
アクション情報生成部46は、会話文キューに格納されている会話文のうち、当該会話文に関連付けられた発話条件を満足する会話文を抽出する。ここで発話条件を満足するか否かの判断に必要な種々の情報、例えば現在日時(処理を実行している日時)の情報や、気象情報等はネットワークを介してNTP(Network Time Protocol)サーバや、所定のウェブサーバから取得すればよい。
The action
アクション情報生成部46は、発話条件を満足するとして抽出した会話文のうちから一つを例えばランダムに選択する。またアクション情報生成部46は、会話履歴管理部45が記録している、リクエストを送出した端末装置20のユーザに係る会話の履歴を読み出す。そしてアクション情報生成部46は、現在記録されている会話の履歴に続いて、上記選択した会話文が発話されたときに自然な会話となるか否かを判断する。
The action
この判断は例えば、人間同士の間でなされた会話のテキストを機械学習したニューラルネットワーク等を用いて、現在記録されている会話の履歴に続く文として妥当であるか否か、すなわち会話に連続性があるか否かを判断させることで実現できる。このような処理は、いわゆる次文予測(Next Sentence Prediction:NSP)として知られる処理である。次文予測を行うためのニューラルネットワークとしては、例えばBERTとして知られるモデル(https://arxiv.org/pdf/1706.03762.pdf)を利用できる。このような次文予測を行うための機械学習の学習用データとしては、一対の会話文(第1の会話文と第2の会話文ととする)と、当該第1,第2の会話文の連続性を表す情報とを互いに関連付けたものを用いる方法等、広く知られた学習用データ並びに、それを用いた機械学習処理方法を採用できる。 Whether or not this judgment is appropriate as a sentence following the currently recorded conversation history using, for example, a neural network obtained by machine learning the text of a conversation made between humans, that is, continuity in the conversation. It can be realized by letting you judge whether or not there is. Such a process is a process known as so-called Next Sentence Prediction (NSP). As a neural network for predicting the next sentence, for example, a model known as BERT (https://arxiv.org/pdf/1706.03762.pdf) can be used. The learning data for machine learning for predicting the next sentence is a pair of conversational sentences (referred to as a first conversational sentence and a second conversational sentence) and the first and second conversational sentences. It is possible to adopt widely known learning data such as a method of using information representing the continuity of the data and a machine learning processing method using the same.
このようにニューラルネットワークを利用して現在記録されている会話の履歴に続く文として、選択した会話文が妥当であるか否か、つまり会話の連続性を判断させた場合、ニューラルネットワークの出力は、その妥当性を数値として表したものとなる。そこでアクション情報生成部46は、予め定めたしきい値を超える数値となるときに、自然な会話となると判断(連続性ありと判断)する。
In this way, if the selected conversation sentence is valid or not, that is, the continuity of the conversation is judged as the sentence following the conversation history currently recorded using the neural network, the output of the neural network is , The validity is expressed numerically. Therefore, the action
そしてアクション情報生成部46は、上記のように連続性ありとの判断をしたときには、文字列情報を読み上げるべき旨の指示と、アニメーション情報の表示指示とを含むアクション指示を生成する。またアクション情報生成部46は、上記選択した会話文の文字列情報と、アニメーションの画像データを特定する情報とを含むパラメータ情報を生成し、当該生成したアクション指示とパラメータ情報とをアクション情報として、端末装置20へ送出するよう、指示送信部47に指示する。
Then, when the action
指示送信部47は、アクション情報生成部46が生成したアクション情報を、受信部41が受信したリクエスト情報の送信元である端末装置20に対して送出する。
The
次に、端末装置20の制御部31の動作について説明する。本実施の形態では、制御部31は、図6に例示するように、リクエスト送出部51と、アクション情報受信部52と、音声合成部53と、アクション処理実行部54とを機能的に含んで構成される。
Next, the operation of the
リクエスト送出部51は、予め定められたトリガが発生したと判断すると、サーバ10での処理に必要な情報を収集して、当該トリガを特定する情報とともに、当該収集した情報を含むリクエスト情報をサーバ10へ送出する。具体的にここでは、ユーザにより音声が入力されたことや、所定の時刻になったなどといったトリガを予め列挙して、設定情報に含め、記憶部32に格納しておく。
When the
一例として設定情報には、図7に例示するように、トリガごとに、それぞれの名称(トリガ名:N)に対して発生条件(C)や当該トリガに関係してサーバ10での処理に必要な情報を特定する情報(P)、インターバル時間(T)等のトリガの処理に関わる情報に関連付けて列挙して記録されているものとする。
As an example, as illustrated in FIG. 7, the setting information is required for the generation condition (C) for each name (trigger name: N) and the processing on the
リクエスト送出部51は、この設定情報を参照して、発生条件が満足されたと判断すると、当該発生条件が満足されたトリガが発生したとして、当該トリガに関係してサーバ10での処理に必要な情報(P)を参照する。
When the
そしてリクエスト送出部51は、当該参照した情報で特定される、サーバ10での処理に必要な情報を収集し、当該収集した情報と、発生したトリガを特定する情報(トリガ名でよい)とを含むリクエスト情報を、サーバ10へ送出する。
Then, the
アクション情報受信部52は、サーバ10からアクション情報を受信して、当該受信したアクション情報を、アクション処理実行部54に出力する。
The action
音声合成部53は、後に説明するアクション処理実行部54から入力される文字列情報に基づいて、音声データを合成する。この音声合成部53は、合成して得られた音声データを、アクション処理実行部54に出力する。
The
アクション処理実行部54は、サーバ10が送出したアクション情報から、アクション指示とパラメータ情報とを取り出し、アクション指示に従って処理を実行する。具体的に、上述の例のように、当該取得した文字列情報を読み上げるべき旨の指示と、上記アニメーション情報の表示指示とを含むアクション指示、及び、取得した文字列情報と、アニメーションの画像データとを含むパラメータ情報を含んだアクション情報を、アクション情報受信部52が受信した場合について説明する。
The action
この例ではアクション処理実行部54は、取得した文字列情報を音声合成部53に出力して、音声データを取得する。また、アクション処理実行部54は、アクション情報に含まれる情報で特定されるアニメーションの画像データを記憶部22から読み出す。そしてアクション処理実行部54は、音声合成部53が出力した音声データを、音声出力部35に出力して、音声を鳴動させるとともに、上記読み出したアニメーションの画像データを表示部34に出力して、アニメーションの画像データを再生する。
In this example, the action
[動作]
本実施の形態の情報処理システム1は、以上の構成を備えており、次の例のように動作する。なお以下の例ではサーバ10の記憶部12には、アクションの要求の原因であるトリガごとに、アクション情報の生成のためにサーバ10が実行する処理を表す情報が関連付けられて、アクションデータベースとして格納されているものとする。
[motion]
The information processing system 1 of the present embodiment has the above configuration and operates as in the following example. In the following example, the
以下の例では、このアクションデータベースに含まれる情報の例として、
・トリガを特定する情報(T):ユーザが会話をしている
・実行する処理:
(ステップ1)会話文の文字列情報を選択
(ステップ2)当該文字列情報を読み上げる指示を生成
(ステップ3)読み上げのときに再生するアニメーション情報を表示させる指示を生成する
との情報が含まれるものとする。
In the following example, as an example of the information contained in this action database,
-Information that identifies the trigger (T): The user is having a conversation-Process to be executed:
(Step 1) Select the character string information of the conversation sentence (Step 2) Generate an instruction to read out the character string information (Step 3) Generate an instruction to display the animation information to be played at the time of reading out. And.
また、端末装置20の記憶部32は、設定情報として、図7に例示したように、トリガごとに、発生条件(C)や当該トリガに関係してサーバ10での処理に必要な情報を特定する情報(P)等を関連付けて格納している。
Further, as setting information, the
以下の例では、この設定情報に、
・トリガを特定する情報(トリガ名N):ユーザによる音声入力があった
・発生条件(C):ユーザが所定のウェイクワードを発声した
・サーバ10での処理に必要な情報を特定する情報(P):
ユーザが発話した内容の文字列情報
…
といった情報が含まれるものとする。ここでウェイクワードとは、ユーザがその語を発話したときに、音声入力の開始として認識するべき、「ねえ聞いてよ」や「起きてよ」等の語であり、予め定められているものとする。端末装置20は、サーバ10での処理に必要となるユーザが発話した内容の文字列情報から、このウェイクワードに相当する文字列部分を除いてもよい。
In the following example, this setting information is
-Information that identifies the trigger (trigger name N): There was a voice input by the user-Occurrence condition (C): The user uttered a predetermined wake word-Information that identifies the information required for processing on the server 10 ( P):
Character string information of the content spoken by the user ...
Such information shall be included. Here, the wake word is a word such as "Hey listen" or "Get up" that should be recognized as the start of voice input when the user utters the word, and is predetermined. And. The
以下、このような設定の情報等を保持するサーバ10と、端末装置20との動作について、図8,図9を参照しながら説明する。
Hereinafter, the operation of the
ユーザが、端末装置20に対して「ねえ聞いてよ。明日はデートなんだけど…」などと発話する(図8のS11)と、端末装置20はこのユーザの音声を認識する処理を実行して(S12)、ユーザが発話した音声に対応する文字列情報を取得する。既に述べたように、音声認識の処理は端末装置20自身が行わなくても、ネットワークを介して音声認識処理のサービスにアクセスすることで行ってもよい。
When the user utters to the
端末装置20は、設定情報を参照して、いずれかのトリガの発生条件が満足されたかを調べる(S13)。ここでは、ユーザがウェイクワードである「ねえ聞いてよ」を発声しているので、「ユーザによる音声入力があった」旨のトリガが発生したものとして(S13:Yes)、設定情報に従い、ユーザが発話した内容の文字列情報を収集する。なお、ステップS13において、いずれのトリガの発生条件も満足していないと判断すると(S13:No)、端末装置20は処理を終了する。
The
ここでは、ユーザが発話した内容は既にステップS12にて、ユーザが発話した内容の文字列情報を取得しているので、端末装置20は、当該文字列情報と、発生したトリガを特定する情報(トリガ名「ユーザによる音声入力があった」)とを含むリクエスト情報をサーバ10宛に送出する(S14)。
Here, since the content uttered by the user has already acquired the character string information of the content uttered by the user in step S12, the
サーバ10では端末装置20からのリクエスト情報を受信する。そしてサーバ10は、当該リクエスト情報に含まれる文字列情報がイベントに関わる情報であるか否かを、予め定められたイベントに関わる情報のパターンと当該リクエスト情報に含まれる文字列情報とを比較することで判断する(S15)。
The
ここでパターンが「*[明日|明後日|週末|来週][D+日][W+曜][日][は|に]W+[が][ある|なん]*」であるとすると、上記受け入れた文字列情報が「ねえ聞いてよ。明日はデートなんだけど…」であるので、サーバ10は、当該パターンに一致するものと判断する。つまり、この文字列情報は、イベントに関わる情報であると判断される(S15:Yes)こととなる。
Here, assuming that the pattern is "* [Tomorrow | The day after tomorrow | Weekend | Next week] [D + day] [W + day] [Sun] [ha | ni] W + [ga] [is | what] *", the above was accepted. Since the character string information is "Hey, listen. It's a date tomorrow ...", the
なお、イベントに関わる情報でないと判断されたとき(S15:No)には、サーバ10は、他の処理、つまりアクションデータベースを参照して得られる処理を実行する。
When it is determined that the information is not related to the event (S15: No), the
そこでサーバ10は、この文字列情報から日時情報と、イベント特定情報とを取り出す(S16)。ここでは「明日」とあるので、サーバ10は、この処理を実行している日時(例えば12月15日)の次の日である「12月16日」との日時情報を得る。また、サーバ10は、イベント特定情報として、上記文字列情報から「デート」を抽出する。
Therefore, the
次にサーバ10は、会話文を生成する。サーバ10は、まず会話文の発話期間として、予め日数データテーブルに定められた日数候補から一つの日数を、ランダムに取得する(S17:発話期間の決定)。ここでは日数候補として「7日」を取得したものとする。またこのステップS16の処理においてサーバ10は、取得した日数候補に関連付けて日数データテーブルに記録されている発話期間長(ここでは「7日」とする)と、日時指示語(ここでは「この間の」とする)を取得し、ステップS16で取り出した日時情報(12月16日)と、取得した日数候補と、発話期間長とを用い、発話期間を「12月23日から12月30日まで」と決定する。
Next, the
なお、この発話期間の決定の処理では、予め日数データテーブルに定められた日数候補から一つの日数をランダムに決定する例としたが、本実施の形態はこれに限られず、サーバ10は、ステップS16で取得したイベント特定情報に関連付けて予め定められた日数を、発話期間として取得してもよい。
In the process of determining the utterance period, one day is randomly determined from the number of days candidates predetermined in the number of days data table, but the present embodiment is not limited to this, and the
この例では、例えばイベント特定情報が「デート」(比較的頻繁に発生し得るイベントであり、話題のライフタイムが比較的短いと考えられるイベント)である場合は、比較的短い日数として「4日」、また、「旅行」(話題のライフタイムが比較的長いと考えられるイベント)である場合は、比較的長い日数として「14日」などと予め定めたデータテーブルを記憶部12に記憶させておき、サーバ10は、このデータテーブルを参照して、発話期間を設定する。
In this example, for example, if the event specific information is a "date" (an event that can occur relatively frequently and the topic lifetime is considered to be relatively short), the relatively short number of days is "4 days". In the case of "travel" (an event that is considered to have a relatively long topical lifetime), a data table predetermined as "14 days" as a relatively long number of days is stored in the
また別の例では、ステップS16で取得したイベント特定情報のそれぞれに関連付けて複数の日数候補を記憶したデータテーブルを参照して発話期間を決定してもよい。 In another example, the utterance period may be determined by referring to a data table in which a plurality of day number candidates are stored in association with each of the event specific information acquired in step S16.
この例では、イベント特定情報が「デート」(比較的頻繁に発生し得るイベントであり、話題のライフタイムが比較的短いと考えられるイベント)である場合は、比較的短い日数の日数候補として「1日、2日、3日、4日」、また、「旅行」(話題のライフタイムが比較的長いと考えられるイベント)である場合は、比較的長い日数まで含めて「1日、2日、…、13日、14日」などと予め定めたデータテーブルを記憶部12に記憶させておく。
In this example, if the event-specific information is "dating" (an event that can occur relatively frequently and is considered to have a relatively short topical lifetime), then "a candidate for the number of days with a relatively short number of days" "1 day, 2 days, 3 days, 4 days", and in the case of "travel" (event that is considered to have a relatively long topical lifetime), "1 day, 2 days" including relatively long days , ..., 13th, 14th ”and so on are stored in the
そしてサーバ10は、ステップS16で取得したイベント特定情報に関連付けて、上記データテーブルに予め定められた日数候補から一つの日数をランダムに選択し、当該選択した日数を発話期間として設定する。
Then, the
この例では、ステップS16で取得したイベント特定情報で特定されるイベントが「デート」の場合は、1日乃至4日の発話期間が設定されることとなり、ステップS16で取得したイベント特定情報で特定されるイベントが「旅行」であるときには、1日乃至14日の発話期間が設定されることとなる。 In this example, when the event specified by the event specific information acquired in step S16 is "date", the utterance period of 1 to 4 days is set, and the event is specified by the event specific information acquired in step S16. When the event to be held is "travel", the utterance period of 1 to 14 days will be set.
サーバ10は、選択した日数候補に関連付けられた日時指示語と、イベント情報取得部43が出力するイベント特定情報と、予め定められた会話文パターンの候補の情報とを用いて、会話文を生成する(S18)。ここではサーバ10は、予め定められた、複数の会話文パターンの候補のうちから一つを選択して、日時指示語(「この間の」)とイベント特定情報(「デート」)とを差し込むことで、会話文、例えば、
「そういえば、この間のデートは、どうだった?」
といった会話文を生成する。
The
"By the way, how was your date during this time?"
To generate a conversational sentence such as.
サーバ10は、このステップS18の処理で生成した会話文に、ステップS17の処理で決定した発話期間を発話条件として関連付けて、記憶部12に格納した会話文キューに蓄積する(S19)。
The
この処理により、会話文キューには、予め設定されている会話文である、
(1)発話条件:最高気温が35度以上だった、かつ、時刻が18時以降である
会話文:「今日は、暑かったね」
(2)発話条件:時刻が午前2時から午前4時の間である
会話文「そろそろ寝ない?」
…
などとともに、
(n)発話条件:12月23日から12月30日までの発話期間内である
会話文:「そういえば、この間のデートは、どうだった?」
との会話文が蓄積された状態となる。
By this process, the conversation sentence queue is a preset conversation sentence.
(1) Speaking conditions: The maximum temperature was 35 degrees or higher, and the time was after 18:00. Conversation: "It was hot today."
(2) Speaking condition: The time is between 2:00 am and 4:00 am Conversational sentence "Why don't you go to bed soon?"
...
And so on
(N) Speaking conditions: During the utterance period from December 23 to December 30 Conversation: "By the way, how was your date during this time?"
Conversational sentences with are accumulated.
なお、この動作の間も、サーバ10は、ユーザにより入力された音声の内容と、当該ユーザの端末装置20により発話される会話文の内容とを順次記録して、会話履歴の情報を生成している。ここでは例えば、ユーザとの間で次のような会話が行われる場合、その会話履歴の情報が保持される。
During this operation, the
すなわち、サーバ10では、
ユーザ:「ねえ聞いてよ。明日はデートなんだけどね」
端末装置20の発話:「へえ、そうなんだ」
ユーザ:「天気はどうかな」
端末装置20の発話:「明日は晴れるみたいだよ」
といった会話履歴の情報が記録されることとなる。
That is, on the
User: "Hey, listen. I'm going on a date tomorrow."
Utterance of terminal device 20: "Oh, that's right."
User: "How is the weather?"
Utterance of terminal device 20: "It looks like it will be fine tomorrow."
Information on the conversation history such as is recorded.
なお、サーバ10は、このステップS16乃至S19の処理と並行して、他の処理、つまりアクションデータベースを参照して得られる処理を実行してもよい。
The
その後、例えば12月24日にユーザが、端末装置20に対して「起きてよ。何かニュースある?」などと発話する(図9のS21)と、端末装置20はこのユーザの音声を認識する処理を実行して(S22)、ユーザが発話した音声に対応する文字列情報を取得する。
Then, for example, on December 24, when the user utters "Get up. Is there any news?" To the terminal device 20 (S21 in FIG. 9), the
また端末装置20は、設定情報を参照して、いずれかのトリガの発生条件が満足されたかを調べる(S23)。ここでは、ユーザがウェイクワードを発声しているので、「ユーザによる音声入力があった」旨のトリガが発生したものとして(S23:Yes)、設定情報に従い、ユーザが発話した内容の文字列情報「起きてよ。何かニュースある?」を収集する。そして端末装置20は、当該文字列情報と、発生したトリガを特定する情報(トリガ名「ユーザによる音声入力があった」)とを含むリクエスト情報をサーバ10宛に送出する(S24)。
Further, the
サーバ10では、「ユーザによる音声入力があった」旨のトリガに関連付けられた、比較文字列情報「*ニュース[を|は]*[ない|教えて|読みあげて]*」に、端末装置20が送信した文字列情報「起きてよ。何かニュースある?」とが比較して一致しているか否かを判断する(S25)。
In the
ここでは、サーバ10が端末装置20から受信した文字列情報「起きてよ。何かニュースある?」が比較文字列情報に一致するため、サーバ10は、ステップS25で比較文字列情報と受信した文字列情報とが一致したと判断して、「ユーザによる音声入力があった」旨のトリガと上記比較文字列情報とに関連付けられている情報で特定される処理を開始する。
Here, since the character string information "Get up. Is there any news?" Received from the
例えばサーバ10は、インターネット上の所定のウェブサーバからニュースの文字列情報を取得し、当該文字列情報を読み上げるべき旨の指示とともに、アクション情報として端末装置20に対して送出する(S26)。
For example, the
端末装置20では、この指示に従い、ニュースの情報を読み上げる処理を実行する(S27)。ここでは例えば「先週に引き続き、暖かい日が続いていますが、年末は寒波が襲来すると予想されています」のようなニュースが読み上げられる。
The
サーバ10では、ここまでで端末装置20との間で送受した文字列情報を会話の履歴として記録している。上述の例では、
ユーザ:「起きてよ。何かニュースある?」
端末装置20の発話:「『先週に引き続き、暖かい日が続いていますが、年末は寒波が襲来すると予想されています』、だって」
といった会話の履歴が記録される。
The
User: "Get up. Any news?"
Utterance of terminal device 20: "'It's been a warm day since last week, but it's expected that a cold wave will hit at the end of the year.'"
The history of conversations such as is recorded.
なお、ここまでの処理において、サーバ10は、当該リクエスト情報に含まれる文字列情報がイベントに関わる情報であるか否かを、予め定められたイベントに関わる情報のパターンと当該リクエスト情報に含まれる文字列情報とを比較することで判断するが、「起きてよ。何かニュースある?」の文字列情報は、パターン「*[明日|明後日|週末|来週][D+日][W+曜][日][は|に]W+[が][ある|なん]*」に合致しないため、イベントに関わる情報とされず、対応する処理は行われない。
In the processing up to this point, the
この後、ユーザがさらに、端末装置20に対して「ああ。確かに先週は暖かかったなあ」などと発話すると(S28)、端末装置20はユーザが発話した音声に対応する文字列情報を取得する。そして端末装置20は例えば「ユーザが会話をしている」旨のトリガが発生したものとして、設定情報に従い、ユーザが発話した内容の文字列情報「ああ。確かに先週は暖かかったなあ」と、発生したトリガを特定する情報とを含むリクエスト情報をサーバ10宛に送出する(S29)。
After that, when the user further utters to the
サーバ10ではこのリクエスト情報に含まれる文字列情報がイベントに関わる情報であるか否かを、予め定められたイベントに関わる情報のパターンと当該リクエスト情報に含まれる文字列情報とを比較することで判断するが、この文字列情報も、上記パターンに合致しないので、イベントに関わる情報とされず、対応する処理は行われない。
The
一方、サーバ10は、「ユーザが会話をしている」とのトリガを特定する情報に関連付けられている情報で特定される処理を実行し、会話文の文字列情報を選択して、当該文字列情報を発声させる指示を端末装置20へ送出する(S30)。
On the other hand, the
すなわちサーバ10は、図10に例示するように、このステップS30の処理において、会話文キューに格納されている会話文のうち、当該会話文に関連付けられた発話条件を満足する会話文を抽出する(S41)。またサーバ10は、ここで会話文のうち、未選択の会話文の一つを例えばランダムに選択する(S42)。
That is, as illustrated in FIG. 10, the
他方、サーバ10は、リクエストを送出した端末装置20のユーザに係る会話の履歴を参照し、現在記録されている会話の履歴に続いて、ステップS42で選択した会話文が発話されたときに自然な会話となるか否かを判断する(S43)。
On the other hand, the
具体的にサーバ10は、人間同士の間でなされた会話のテキストを機械学習したBERTのモデルを用いた次文予測処理により、選択した会話文が、現在記録されている会話の履歴に続く文としての妥当性を表す数値(妥当であるほど大きい値となるものとする)を取得する。そしてサーバ10は、取得した値が予め定めたしきい値を超える数値となるときに、自然な会話となる(連続性あり)と判断し、そうでないときには自然な会話とならない(連続性なし)と判断する。
Specifically, the
サーバ10は、ステップS43において、選択した会話文が発話されたときに自然な会話となると判断する(S43:Yes)と、当該選択した会話文の文字列情報を読み上げるべき旨の指示を含むアクション情報を生成する。そしてサーバ10は、当該アクション情報を端末装置20へ送出する(S44)。
In step S43, when the
なお、ステップS43において、選択した会話文が発話されたときに自然な会話とならないと判断する(S43:No)と、サーバ10は、処理S42に戻って処理を続ける。なお、処理S42において未選択の会話文がない場合は、予め定めた会話文の文字列情報を読み上げるべき旨の指示を含むアクション情報を生成して端末装置20へ送出するなど、予め定めた処理を実行する(S45:既定処理の実行)。
If it is determined in step S43 that the conversation does not become a natural conversation when the selected conversation sentence is spoken (S43: No), the
図9に戻り、端末装置20では、アクション情報の指示に従い、文字列情報を読み上げる処理を実行する(S31)。
Returning to FIG. 9, the
具体的な例として、上記ステップS43の処理においては、
ユーザ:「起きてよ。何かニュースある?」
端末装置20の発話:「『先週に引き続き、暖かい日が続いていますが、年末は寒波が襲来すると予想されています』、だって」
ユーザ:「ああ。確かに先週は暖かかったなあ」
といった会話の履歴に引き続いて、発話条件が満足されている会話文の一つとして、「そういえば、この間のデートは、どうだった?」との会話文が自然に連続するか否かが判断される。
As a specific example, in the process of step S43,
User: "Get up. Any news?"
Utterance of terminal device 20: "'It's been a warm day since last week, but it's expected that a cold wave will hit at the end of the year.'"
User: "Oh, it was warm last week."
Following the conversation history such as, as one of the conversation sentences that the utterance conditions are satisfied, it is judged whether or not the conversation sentence "By the way, how was the date during this time?" Is naturally continuous. Will be done.
ここで会話に連続性があると判断された場合、この会話文を発話するようサーバ10が端末装置20に指示するので、会話は全体として、
ユーザ:「起きてよ。何かニュースある?」
端末装置20の発話:「『先週に引き続き、暖かい日が続いていますが、年末は寒波が襲来すると予想されています』、だって」
ユーザ:「ああ。確かに先週は暖かかったなあ」
端末装置20の発話:「そういえば、この間のデートは、どうだった?」
といったようになる。
If it is determined that the conversation is continuous, the
User: "Get up. Any news?"
Utterance of terminal device 20: "'It's been a warm day since last week, but it's expected that a cold wave will hit at the end of the year.'"
User: "Oh, it was warm last week."
Utterance of terminal device 20: "By the way, how was your date during this time?"
And so on.
このように本実施の形態では、過去の予定に関する会話が現れることで、ユーザに対応した内容の会話を実現でき、親近感を喚起できる。 As described above, in the present embodiment, the conversation about the past schedule appears, so that the conversation of the content corresponding to the user can be realized and the feeling of familiarity can be aroused.
[端末装置単体の場合]
ここまでの説明では、端末装置20がユーザの発した音声を認識して得た文字列情報をサーバ10へ送出していた。そしてサーバ10にて端末装置20で発声するべき音声データのもととなる文字列情報(会話文)を生成して提供することとしていた。
[In the case of a single terminal device]
In the above description, the
しかしながら本発明の実施の形態の一態様では、端末装置20が情報処理装置として機能してもよい。この場合、サーバ10は必ずしも必要ではない。
However, in one aspect of the embodiment of the present invention, the
この例では、端末装置20の制御部31が、リクエスト送出部51と、アクション情報受信部52と、音声合成部53と、アクション処理実行部54としての機能を実現するとともに、受信部41と、イベント管理部42と、イベント情報取得部43と、会話文生成部44と、会話履歴管理部45と、アクション情報生成部46としても動作することとなる。
In this example, the
またこの場合、アクションデータベースや会話文キュー等、上記の説明で記憶部12に格納されているデータはいずれも端末装置20の記憶部32に格納される。
Further, in this case, all the data stored in the
そしてこの例ではリクエスト送出部51は、リクエスト情報を、制御部31自身が実現する受信部41に対して出力することとなる。また受信部41は、当該出力されたリクエスト情報を受け入れて処理を行う。さらにアクション情報生成部46は、生成したアクション情報を、制御部31自身が実現するアクション情報受信部52に対して出力する。
Then, in this example, the
これらの情報の出力と受け入れは、ローカルループバックを通じて、ネットワーク(通信部36)経由で行われてもよいし、ネットワークを介することなく、記憶部32に格納して読み出すことで行われてもよい。
The output and acceptance of this information may be performed via the network (communication unit 36) through a local loopback, or may be stored and read in the
[発話の停止動作]
また端末装置20は、音声データ(サーバ10から受信した文字列情報に基づいて合成した音声データを含む)の再生中に、ユーザが端末装置20に対して所定の操作を行ったときに、音声データの再生を中断することとしてもよい。
[Stop utterance]
Further, the
この所定の操作は、例えばセンサ部33がタッチセンサを備える場合は、タッチセンサに触れることにより行われてもよい。この例では、端末装置20は音声データの再生中、ユーザがタッチセンサに触れたことを検出すると、音声データの再生を中断する。
This predetermined operation may be performed by touching the touch sensor, for example, when the
また別の例では、この所定の操作は、ユーザが所定の語を発したことであってもよい。例えば端末装置20は音声データの再生中、ユーザが「しっ」と、静かにするよう要求する語を発したと判断すると、端末装置20は、音声データの再生を中断する。
In yet another example, this predetermined operation may be that the user utters a predetermined word. For example, when the
さらに別の例では、情報処理システム1は、ユーザが操作を行わない場合であっても所定の会話文の発声をしないよう制御してもよい。 In yet another example, the information processing system 1 may be controlled so as not to utter a predetermined conversational sentence even when the user does not perform the operation.
具体的に端末装置20のセンサ部33は、人数を検出可能な人感センサ(広く知られているデバイスであるので、その詳しい説明を省略する)を備えてもよい。そしてこの人感センサが端末装置20の周囲で検出した人数の情報を、会話文の選択に用いてもよい。
Specifically, the
この例では、会話文生成部44としての機能を実行するサーバ10または端末装置20は、イベント情報取得部43が出力する情報に基づいて会話文を生成して会話文キューに登録する際、発話条件に、発話期間の情報に加えて、端末装置20が検出した人数の情報に係る条件を含める。一例としてこの人数に係る条件は、人数が「1」(単数)であるとの条件としておく。
In this example, when the
端末装置20は、サーバ10で会話文を選択する場合には、サーバ10に対して送出するリクエスト情報に、周囲で検出した人数を表す人数情報を含めて送出する。
When the
そしてアクション情報生成部46としての機能を実行するサーバ10または端末装置20は、会話文キューに格納されている会話文のうち、当該会話文に関連付けられた発話条件を満足する会話文を抽出する際に、この人数情報を用いた条件も満足する会話文を選択する。
Then, the
上述の例のように、過去のイベント情報に関係する会話文の発話条件として人数が「1」であるとの条件を含めておくと、端末装置20の周囲に複数の人物が存在する場合には、過去のイベント情報に関係する会話文が選択されない状態となるので、ユーザのプライベートな情報が漏出する機会を低減できる。
As in the above example, if the condition that the number of people is "1" is included as the utterance condition of the conversation sentence related to the past event information, when a plurality of people exist around the
[感情の表現]
本実施の形態の一例ではさらに、アクション情報に、端末装置20の表示部34に表示するキャラクタの感情に関係する情報が含まれてもよい。この感情の情報は、例えば喜び(Joy)、や悲しみ(Sad)などを特定する情報等でよい。またこの感情の情報には、無感情を表す情報(flat)を含んでもよい。
[Expression of emotion]
In an example of the present embodiment, the action information may further include information related to the emotion of the character displayed on the
端末装置20では、受信したアクション情報に含まれる感情の情報を参照して、表示部34に表示する目の画像データを選択する。一例として感情の情報が「Sad」である場合は、端末装置20は目の画像データのうち、涙を流している目のアニメーションの画像データを選択して表示する。
The
さらに本実施の形態の一例では、アクション情報に含める感情の情報を決定する際に、発話の対象となる文字列情報を生成するサーバ10あるいは端末装置20は、当該文字列情報に含まれる語に基づいて感情を決定してもよい。このような処理は例えば文字列情報に含まれる単語に基づく文字列情報が表す文の極性判断の処理などとして行うことができる。具体的に、ニュースの文字列情報を発話させる場合、悲劇的な事件を表す単語が含まれているときには悲しみの感情を特定する情報とともに、当該ニュースの文字列情報をアクション情報に含める。
Further, in an example of the present embodiment, when the emotional information to be included in the action information is determined, the
[情報の削除]
また、本実施の形態において、会話文キューを記憶するサーバ10または端末装置20は、所定のタイミングごとに会話文キューから、既に経過している発話期間(終了している発話期間)に関連付けられた会話文を削除することとしてもよい。
[Delete information]
Further, in the present embodiment, the
さらに、会話文キューに格納した情報のうち、会話文生成部44が格納した会話文については、当該会話文が発話されたときに会話文キューから削除してもよい。これにより、同じ会話文が何度も再生されてしまうことを防止する。
Further, among the information stored in the conversation sentence queue, the conversation sentence stored by the conversation
[スケジュール情報からの取得]
さらに本実施の形態のここまでの説明では、イベント情報取得部43として機能するサーバ10または端末装置20は、ユーザにより入力された音声の内容を表す文字列情報がイベントに関わる情報のパターンに合致する場合に、当該文字列情報から日時情報と、イベント特定情報とを取り出していた。しかしながら本実施の形態はこれに限られない。
[Get from schedule information]
Further, in the description of the present embodiment so far, in the
本実施の形態の一例では、イベント情報取得部43は、上記の処理に代えて、あるいは上記の処理とともに、予め定められたスケジュール情報を取得して日時情報と、イベント特定情報とを取り出してもよい。具体的に、イベント情報取得部43として機能するサーバ10または端末装置20は、予めユーザから、ユーザがスケジュール情報を登録するウェブサービスへのアクセス権の設定を受けておく。そして端末装置20は、当該設定に従い、ウェブサービスからスケジュール情報を取得する。
In an example of the present embodiment, the event
このイベント情報取得部43は、ここで取得したスケジュール情報に、日時情報と、当該日時にユーザが関わるイベントを特定するイベント特定情報(例えば「デート」や「仕事」など)が含まれるときに、これら日時情報と、イベント特定情報とを取り出し、会話文生成部44に出力する。
When the schedule information acquired here includes date and time information and event specific information (for example, "date" or "work") that identifies an event in which the user is involved in the date and time, the event
この例によると、ユーザとの会話に表れなくても、ユーザの過去の予定に基づいて、会話を提供できる。 According to this example, the conversation can be provided based on the user's past schedule, even if it does not appear in the conversation with the user.
[発話期間を広くとる場合]
またここまでの説明では、会話文生成部44が、予め会話文全体を生成して会話文キューに蓄積することとしていた。そこで発話期間に応じて、会話の主題である過去のイベントが発生した日までの相対的な指示語(「昨日」、「一昨日」など)を会話文生成部44が予め含めていた。
[When taking a wide utterance period]
Further, in the explanation so far, the conversation
しかしながら本実施の形態はこれに限られず、会話文生成部44は、会話文のうち、過去のイベントが発生した日を表す語の位置のみを表す会話文のテンプレートを生成して会話文キューに蓄積しておいてもよい。この場合、会話文が選択された後にアクション情報生成部46の処理において、選択された会話文を発話するべき指示を生成する際に、その時点から、対象となる過去のイベントが発生した日を表す語を生成してもよい。
However, the present embodiment is not limited to this, and the conversation
この例では、イベント情報取得部43は、イベント管理部42に対して取得したイベント情報を記録させ、当該記録させたイベントを識別する、イベントに固有なイベント識別子を発行させる。
In this example, the event
そして会話文生成部44は、このイベント情報取得部43が取得したイベント情報(日時情報及びイベント特定情報を含む)に関わる会話文の生成時に、過去のイベントが発生した日を表す語の位置のみを表す会話文のテンプレートを生成し、対応するイベント識別子に関連付けて会話文キューに蓄積する。ここで会話文のテンプレートは例えば、「<日時>のデートはどうだった?」のように、日時を特定する語に置き換えるべき符号を含むものとなる。
Then, the conversation
その後、アクション情報生成部46が、このイベント識別子に関連付けられた会話文を発話の対象として選択すると、アクション情報生成部46は、当該選択した会話文に関連付けられたイベント識別子を参照して、イベント管理部42から当該イベント識別子に対応するイベント情報(少なくともその日時情報を含む)を取得する。
After that, when the action
そして現在の日時から見て、当該日時を特定する語を生成して、選択した会話文のうち、日時を特定する語に置き換えるべき符号に置き換える。この語の生成は、予め日数の間隔に基づいて1日であれば「昨日」、2日であれば「一昨日」、3日から6日であれば「この間」、7日から13日であれば「先週」…などとして予め定めておけば、現在の日時と対象となったイベントの発生した日時との差(日数の間隔)に基づいて得ることができる。 Then, when viewed from the current date and time, a word that specifies the date and time is generated, and the selected conversational sentence is replaced with a code that should be replaced with the word that specifies the date and time. This word is generated in advance based on the interval of days, if it is 1 day, "yesterday", if it is 2 days, "the day before yesterday", if it is 3 to 6 days, "during this time", or if it is 7 to 13 days. For example, if it is set in advance as "last week", etc., it can be obtained based on the difference (interval between days) between the current date and time and the date and time when the target event occurred.
そしてアクション情報生成部46は、日時を特定する語を含めた会話文を発話させる指示を含めたアクション情報を生成する。
Then, the action
[実施形態の特徴]
本実施の形態は、また次のことを特徴とする。すなわち、本実施の形態の一態様は、情報処理装置であって、日時情報に関連付けられた、ユーザのイベントを特定する、「デート」などのイベント特定情報を取得する取得手段と、前記日時情報が表す日時より後の日時に発話する処理において、「先週のデートどうだった」などといった、当該イベント特定情報に関連する会話文である関連会話文を生成する会話文生成手段と、を備える。
[Characteristics of Embodiment]
The present embodiment is also characterized by the following. That is, one aspect of the present embodiment is an information processing device, which is an acquisition means for acquiring event specific information such as "date", which identifies a user's event associated with date and time information, and the date and time information. In the process of speaking at a date and time after the date and time represented by, a conversation sentence generation means for generating a related conversation sentence which is a conversation sentence related to the event specific information such as "How was the date last week" is provided.
この情報処理装置は、ユーザごとに提供される端末装置として実装されてもよいし、当該端末装置に通信可能に接続されて上記の各手段を実現するサーバとして実装されてもよい。 This information processing device may be implemented as a terminal device provided for each user, or may be implemented as a server that is communicably connected to the terminal device and realizes each of the above means.
この例によると、情報処理装置が過去の予定に関する会話文を提供することとなり、過去のイベントについての会話が実現されるため、ユーザにとってよりプライベートな内容の会話を実現でき、親近感を喚起できる。 According to this example, the information processing device provides a conversation sentence about the past schedule, and the conversation about the past event is realized, so that the conversation with more private content can be realized for the user and the feeling of familiarity can be aroused. ..
またここで、ユーザから入力される会話文に、予め定められたイベントに関わる「デート」などのイベント関連語と、「来週末」などといった日時を特定する日時関連語とが含まれる場合に、前記イベント関連語に関連する前記イベント特定情報と、前記日時関連語が表す前記日時情報とを関連付けて蓄積する蓄積手段、を備える。 In addition, here, when the conversation sentence input from the user includes an event-related word such as "date" related to a predetermined event and a date-related word such as "next weekend" that specifies the date and time. The storage means for accumulating the event specific information related to the event-related word and the date and time information represented by the date-time-related word in association with each other is provided.
この例では、ユーザがスケジュール情報などとして登録せずとも、会話文として入力しているだけでイベントに関する情報が蓄積できる。 In this example, information about the event can be accumulated only by inputting it as a conversational sentence without the user registering it as schedule information or the like.
さらに、前記会話文生成手段は、「先週のデートどうだった?」などといった前記関連会話文を、当該関連会話文を発話する期間を表す情報に関連付けて記録し、前記期間に、現在の日時が含まれる場合に、ユーザから入力される会話文と、当該関連会話文とが連続性を有するか否かが判断され、連続性を有すると判断されたときに、当該関連会話文の発話処理を実行する実行手段と、を含むこととしてもよい。 Further, the conversation sentence generation means records the related conversation sentence such as "How was your date last week?" In association with information indicating the period for uttering the related conversation sentence, and records the current date and time in the period. Is included, it is determined whether or not the conversational sentence input by the user and the related conversational sentence have continuity, and when it is determined that the conversational sentence has continuity, the utterance processing of the related conversational sentence is performed. It may include an execution means for executing the above.
この例によると、過去の予定に関する会話が、自然に連続すると判断されたタイミングで現れるので、会話が自然になる。 According to this example, the conversation about the past schedule appears at the timing when it is judged to be continuous naturally, so that the conversation becomes natural.
ここで、前記実行手段は、第1の会話文と、第2の会話文と、当該第1,第2の会話文の連続性を表す情報とを互いに関連付けた学習データを用いて機械学習されたニューラルネットワークを用いて、前記受け入れた会話文と、当該関連会話文とが連続性を有するか否かを判定することとしてもよい。 Here, the execution means is machine-learned using learning data in which the first conversation sentence, the second conversation sentence, and the information representing the continuity of the first and second conversation sentences are associated with each other. It is also possible to determine whether or not the accepted conversational sentence and the related conversational sentence have continuity by using the neural network.
さらに前記関連会話文が発話されている間、ユーザが、発話を強制的に停止させる動作など、所定の入力を行うと、当該発話を停止することとしてもよい。これにより、発話が適切でない場合に発話を停止できる。 Further, while the related conversational sentence is being spoken, the user may stop the utterance when a predetermined input such as an operation of forcibly stopping the utterance is performed. This makes it possible to stop the utterance when the utterance is not appropriate.
また、前記生成した関連会話文を発話する再生装置と、当該再生装置の近傍に所在する人物を検出する手段をさらに含み、前記再生装置の近傍に所在する人物が単数であるときに限り、前記関連会話文の発話を、前記再生装置に行わせることとしてもよい。これにより、適切でない場面での発話を抑止できる。 Further, the reproduction device for uttering the generated related conversational sentence and a means for detecting a person located in the vicinity of the reproduction device are further included, and only when there is a single person in the vicinity of the reproduction device, the above-mentioned The playback device may be used to utter a related conversational sentence. As a result, it is possible to suppress utterances in inappropriate situations.
1 情報処理システム、10 サーバ、11 制御部、12 記憶部、13 通信部、20 端末装置、21 脚部、22 本体部、31 制御部、32 記憶部、33 センサ部、34 表示部、35 音声出力部、36 通信部、37 駆動部、41 受信部、42 イベント管理部、43 イベント情報取得部、44 会話文生成部、45 会話履歴管理部、46 アクション情報生成部、47 指示送信部、51 リクエスト送出部、52 アクション情報受信部、53 音声合成部、54 アクション処理実行部。
1 Information system, 10 servers, 11 control units, 12 storage units, 13 communication units, 20 terminal devices, 21 legs, 22 main units, 31 control units, 32 storage units, 33 sensor units, 34 display units, 35 voices Output unit, 36 communication unit, 37 drive unit, 41 receiver unit, 42 event management unit, 43 event information acquisition unit, 44 conversation sentence generation unit, 45 conversation history management unit, 46 action information generation unit, 47 instruction transmission unit, 51 Request sending unit, 52 action information receiving unit, 53 voice synthesis unit, 54 action processing execution unit.
Claims (7)
前記日時情報が表す日時より後の日時に発話する処理において、当該イベント特定情報に関連する関連会話文を生成する会話文生成手段と、
を備える情報処理装置。 An acquisition method for acquiring event-specific information that identifies a user's event associated with date and time information,
A conversation sentence generation means for generating a related conversation sentence related to the event specific information in a process of uttering at a date and time after the date and time represented by the date and time information.
Information processing device equipped with.
ユーザから入力される会話文に、予め定められたイベントに関わるイベント関連語と、日時を特定する日時関連語とが含まれる場合に、前記イベント関連語に関連する前記イベント特定情報と、前記日時関連語が表す前記日時情報とを関連付けて蓄積する蓄積手段、を備える
情報処理装置。 The information processing device according to claim 1.
When the conversation sentence input from the user includes an event-related word related to a predetermined event and a date-time-related word that specifies a date and time, the event-specific information related to the event-related word and the date and time are specified. An information processing device including a storage means for accommodating and accumulating the date and time information represented by a related word.
前記会話文生成手段は、前記関連会話文を発話する期間を表す情報に関連付けて記録し、
前記期間に、現在の日時が含まれる場合に、ユーザから入力される会話文と、当該関連会話文とが連続性を有する場合に、当該関連会話文の発話処理を実行する実行手段と、を含む情報処理装置。 The information processing device according to claim 1 or 2.
The conversational sentence generation means records the related conversational sentence in association with information indicating a period during which the related conversational sentence is spoken.
When the current date and time is included in the period, the conversational sentence input from the user and the execution means for executing the utterance processing of the related conversational sentence when the related conversational sentence has continuity. Information processing equipment including.
前記実行手段は、第1の会話文と、第2の会話文と、当該第1,第2の会話文の連続性を表す情報とを互いに関連付けた学習データを用いて機械学習されたニューラルネットワークを用いて、前記入力された会話文と、当該関連会話文とが連続性を有するか否かを判定する情報処理装置。 The information processing device according to claim 3.
The execution means is a machine-learned neural network using learning data in which a first conversation sentence, a second conversation sentence, and information representing the continuity of the first and second conversation sentences are associated with each other. An information processing device that determines whether or not the input conversation sentence and the related conversation sentence have continuity by using.
前記関連会話文が発話されている間、ユーザが所定の入力を行うと、当該発話を停止する情報処理装置。 The information processing device according to any one of claims 1 to 4.
An information processing device that stops the utterance when the user makes a predetermined input while the related conversational sentence is being uttered.
前記生成した関連会話文を発話する再生装置と、
当該再生装置の近傍に所在する人物を検出する手段をさらに含み、
前記再生装置の近傍に所在する人物が単数であるときに限り、前記関連会話文の発話を、前記再生装置に行わせる情報処理装置。 The information processing device according to any one of claims 1 to 5.
A playback device that utters the generated related conversational sentence, and
Further including means for detecting a person located in the vicinity of the playback device, including
An information processing device that causes the playback device to utter the related conversational sentence only when there is only one person located in the vicinity of the playback device.
日時情報に関連付けられた、ユーザのイベントを特定するイベント特定情報を取得する取得手段と、
前記日時情報が表す日時より後の日時に発話する処理において、当該イベント特定情報に関連する関連会話文を生成する会話文生成手段と、
として機能させるプログラム。
Computer,
An acquisition method for acquiring event-specific information that identifies a user's event associated with date and time information,
A conversation sentence generation means for generating a related conversation sentence related to the event specific information in a process of uttering at a date and time after the date and time represented by the date and time information.
A program that functions as.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020009102A JP7436804B2 (en) | 2020-01-23 | 2020-01-23 | Information processing device and program |
| JP2024012081A JP7598076B2 (en) | 2020-01-23 | 2024-01-30 | Information processing device and program |
| JP2024201730A JP2025015772A (en) | 2020-01-23 | 2024-11-19 | Information processing device and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020009102A JP7436804B2 (en) | 2020-01-23 | 2020-01-23 | Information processing device and program |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024012081A Division JP7598076B2 (en) | 2020-01-23 | 2024-01-30 | Information processing device and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021117580A true JP2021117580A (en) | 2021-08-10 |
| JP7436804B2 JP7436804B2 (en) | 2024-02-22 |
Family
ID=77174933
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020009102A Active JP7436804B2 (en) | 2020-01-23 | 2020-01-23 | Information processing device and program |
| JP2024012081A Active JP7598076B2 (en) | 2020-01-23 | 2024-01-30 | Information processing device and program |
| JP2024201730A Pending JP2025015772A (en) | 2020-01-23 | 2024-11-19 | Information processing device and program |
Family Applications After (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024012081A Active JP7598076B2 (en) | 2020-01-23 | 2024-01-30 | Information processing device and program |
| JP2024201730A Pending JP2025015772A (en) | 2020-01-23 | 2024-11-19 | Information processing device and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (3) | JP7436804B2 (en) |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010020531A (en) * | 2008-07-10 | 2010-01-28 | Sharp Corp | Conversation apparatus and conversation method |
| JP2015227951A (en) * | 2014-05-30 | 2015-12-17 | シャープ株式会社 | Speech production device, speech production control device, speech production control system, control method of speech production device, control method of speech production control device, and control program |
| WO2018066258A1 (en) * | 2016-10-06 | 2018-04-12 | シャープ株式会社 | Dialog device, control method of dialog device, and control program |
| WO2018142686A1 (en) * | 2017-01-31 | 2018-08-09 | ソニー株式会社 | Information processing device, information processing method, and program |
| JP2018185771A (en) * | 2017-04-27 | 2018-11-22 | 日本電信電話株式会社 | Sentence pair classification device, sentence pair classification learning device, method, and program |
| JP2018185362A (en) * | 2017-04-24 | 2018-11-22 | 富士ソフト株式会社 | Robot and control method thereof |
| JP2019020775A (en) * | 2017-07-11 | 2019-02-07 | 株式会社Nttドコモ | Information processing device |
| WO2019098038A1 (en) * | 2017-11-15 | 2019-05-23 | ソニー株式会社 | Information processing device and information processing method |
| US20190163961A1 (en) * | 2016-06-27 | 2019-05-30 | Sony Corporation | Information processing system, storage medium, and information processing method |
| WO2019187590A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Information processing device, information processing method, and program |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108475404B (en) | 2016-01-25 | 2023-02-10 | 索尼公司 | Communication system and communication control method |
| JP6551793B2 (en) | 2016-05-20 | 2019-07-31 | 日本電信電話株式会社 | Dialogue method, dialogue system, dialogue apparatus, and program |
-
2020
- 2020-01-23 JP JP2020009102A patent/JP7436804B2/en active Active
-
2024
- 2024-01-30 JP JP2024012081A patent/JP7598076B2/en active Active
- 2024-11-19 JP JP2024201730A patent/JP2025015772A/en active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010020531A (en) * | 2008-07-10 | 2010-01-28 | Sharp Corp | Conversation apparatus and conversation method |
| JP2015227951A (en) * | 2014-05-30 | 2015-12-17 | シャープ株式会社 | Speech production device, speech production control device, speech production control system, control method of speech production device, control method of speech production control device, and control program |
| US20190163961A1 (en) * | 2016-06-27 | 2019-05-30 | Sony Corporation | Information processing system, storage medium, and information processing method |
| WO2018066258A1 (en) * | 2016-10-06 | 2018-04-12 | シャープ株式会社 | Dialog device, control method of dialog device, and control program |
| WO2018142686A1 (en) * | 2017-01-31 | 2018-08-09 | ソニー株式会社 | Information processing device, information processing method, and program |
| JP2018185362A (en) * | 2017-04-24 | 2018-11-22 | 富士ソフト株式会社 | Robot and control method thereof |
| JP2018185771A (en) * | 2017-04-27 | 2018-11-22 | 日本電信電話株式会社 | Sentence pair classification device, sentence pair classification learning device, method, and program |
| JP2019020775A (en) * | 2017-07-11 | 2019-02-07 | 株式会社Nttドコモ | Information processing device |
| WO2019098038A1 (en) * | 2017-11-15 | 2019-05-23 | ソニー株式会社 | Information processing device and information processing method |
| WO2019187590A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7436804B2 (en) | 2024-02-22 |
| JP7598076B2 (en) | 2024-12-11 |
| JP2025015772A (en) | 2025-01-30 |
| JP2024054168A (en) | 2024-04-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN107818798B (en) | Customer service quality evaluation method, device, equipment and storage medium | |
| JP6469252B2 (en) | Account addition method, terminal, server, and computer storage medium | |
| JP6585733B2 (en) | Information processing device | |
| JP7230806B2 (en) | Information processing device and information processing method | |
| US11749270B2 (en) | Output apparatus, output method and non-transitory computer-readable recording medium | |
| JP7107229B2 (en) | Information processing device, information processing method, and program | |
| JPWO2017191696A1 (en) | Information processing system and information processing method | |
| JP2014222290A (en) | Minutes recording device, minutes recording method and program | |
| WO2019155717A1 (en) | Information processing device, information processing system, information processing method, and program | |
| JP7733329B2 (en) | Information processing device and program | |
| JP2018171683A (en) | ROBOT CONTROL PROGRAM, ROBOT DEVICE, AND ROBOT CONTROL METHOD | |
| KR20250051049A (en) | System and method for optimizing a user interaction session within an interactive voice response system | |
| JP7107228B2 (en) | Information processing device, information processing method, and program | |
| JP2020077272A (en) | Conversation system and conversation program | |
| JP7313518B1 (en) | Evaluation method, evaluation device, and evaluation program | |
| JP6347939B2 (en) | Utterance key word extraction device, key word extraction system using the device, method and program thereof | |
| JP7598076B2 (en) | Information processing device and program | |
| EP2541544A1 (en) | Voice sample tagging | |
| CN113950698B (en) | Audio presentation for conversation threads | |
| JP2024542175A (en) | Selective generation and/or selective rendering of ongoing content to complete oral utterances | |
| US20250348521A1 (en) | Memory Assistant System | |
| EP4428854A1 (en) | Method for providing voice synthesis service and system therefor | |
| JP7132206B2 (en) | GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM | |
| US11798015B1 (en) | Adjusting product surveys based on paralinguistic information | |
| CN120930183A (en) | User data processing method and device based on AI customer service |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221115 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230621 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231006 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231010 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240122 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7436804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |