JP7693962B1 - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP7693962B1 JP7693962B1 JP2025029081A JP2025029081A JP7693962B1 JP 7693962 B1 JP7693962 B1 JP 7693962B1 JP 2025029081 A JP2025029081 A JP 2025029081A JP 2025029081 A JP2025029081 A JP 2025029081A JP 7693962 B1 JP7693962 B1 JP 7693962B1
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- user
- dialogue
- situation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】ユーザが対話を中止することを抑制する情報処理装置及び情報処理方法を提供する。
【解決手段】複数の端末に通信可能に接続されている情報処理装置1は、端末が集音した音情報に基づいて端末を使用するユーザの音声を解析し、当該ユーザの音声に対する応答音声を端末に出力させることによりユーザと対話する対話部131と、対話部131によるユーザとの対話時に端末が収集した端末の周囲の状況を示す状況情報を取得する取得部132と、取得部132が取得した状況情報に基づいて、ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定する第1判定部133と、所定状況であると第1判定部133が判定したことに基づいて、第1端末と異なる場所において第1端末と異なる第2端末を利用することにより対話の継続が可能であることをユーザに提示する提示部134と、を有する。
【選択図】図2
An information processing device and an information processing method are provided that suppress a user from abandoning a dialogue.
[Solution] An information processing device 1 that is communicatively connected to multiple terminals has a dialogue unit 131 that analyzes the voice of a user using the terminal based on sound information collected by the terminal and dialogues with the user by having the terminal output a response voice to the user's voice, an acquisition unit 132 that acquires situation information indicating the situation around the terminal collected by the terminal during dialogue with the user by the dialogue unit 131, a first determination unit 133 that determines whether or not the situation is a predetermined situation that makes it difficult for the user to dialogue, based on the situation information acquired by the acquisition unit 132, and a presentation unit 134 that presents to the user that it is possible to continue the dialogue by using a second terminal different from the first terminal in a location different from the first terminal, based on the determination by the first determination unit 133 that it is a predetermined situation.
[Selected figure] Figure 2
Description
本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing device and an information processing method.
従来、アバターを対話エージェントとして端末に表示させ、アバターにユーザが発した音声に基づく応答をさせることでユーザと対話を行う対話装置が知られている(例えば、特許文献1を参照)。 Conventionally, there is known a dialogue device that displays an avatar on a terminal as a dialogue agent and has the avatar respond based on the voice uttered by the user to dialogue with the user (see, for example, Patent Document 1).
アバターを表示させる端末が人の往来が多い場所等に設置される場合、ユーザがアバターに対して話しかけることが恥ずかしかったり、他人に対話の内容を知られたくなかったりすることを理由として対話をしにくく、ユーザが対話を中止してしまうという問題が発生していた。 When a terminal displaying an avatar is installed in a place with a lot of foot traffic, users may feel embarrassed to talk to the avatar or may not want others to know the content of their conversation, making it difficult to have a conversation with the avatar and causing problems such as users abandoning the conversation.
そこで、本発明はこれらの点に鑑みてなされたものであり、ユーザが対話を中止することを抑制することを目的とする。 The present invention was made in consideration of these points, and aims to prevent users from abandoning a conversation.
本発明の第1の態様に係る情報処理装置は、端末が集音した音情報に基づいて前記端末を使用するユーザの音声を解析し、当該ユーザの音声に対する応答音声を前記端末に出力させることにより前記ユーザと対話する対話部と、前記対話部による前記ユーザとの対話時に前記端末が収集した前記端末の周囲の状況を示す状況情報を取得する取得部と、前記取得部が取得した前記状況情報に基づいて、前記ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定する第1判定部と、前記所定状況であると前記第1判定部が判定したことに基づいて、前記端末と異なる場所において前記端末と異なる他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示する提示部と、を有する。 The information processing device according to the first aspect of the present invention has a dialogue unit that analyzes the voice of a user using the terminal based on sound information collected by the terminal and dialogues with the user by causing the terminal to output a response voice to the user's voice, an acquisition unit that acquires situation information indicating a situation around the terminal collected by the terminal during dialogue with the user by the dialogue unit, a first determination unit that determines whether or not the situation is a predetermined situation that is difficult for the user to dialogue based on the situation information acquired by the acquisition unit, and a presentation unit that presents to the user that the dialogue can be continued by using another terminal different from the terminal in a location different from the terminal based on the first determination unit's determination that the situation is the predetermined situation.
前記情報処理装置は、前記他端末が音情報を集音すると、前記端末が集音した音情報と、前記他端末から集音した音情報とに基づいて、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであるかを判定する第2判定部をさらに有し、前記対話部は、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであると前記第2判定部が判定したことに基づいて、前記端末において実施されていた対話の内容を引き継いで前記他端末のユーザとの対話を行ってもよい。 The information processing device may further have a second determination unit that, when the other terminal collects sound information, determines whether the user who was using the terminal and the user who is using the other terminal are the same user based on the sound information collected by the terminal and the sound information collected from the other terminal, and the dialogue unit may take over the content of the dialogue that was being carried out on the terminal and engage in a dialogue with the user of the other terminal based on the second determination unit's determination that the user who was using the terminal and the user who is using the other terminal are the same user.
前記第2判定部は、前記端末が集音した音情報が示す音声の特徴と、前記他端末から集音した音情報が示す音声の特徴とに基づいて、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであるかを判定してもよい。 The second determination unit may determine whether the user who used the terminal and the user who is using the other terminal are the same user based on the characteristics of the voice indicated by the sound information collected by the terminal and the characteristics of the voice indicated by the sound information collected from the other terminal.
前記提示部は、前記対話部による前記ユーザとの対話の内容と、当該対話の内容を識別するための識別情報とを関連付けて記憶部に記憶させ、前記他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示するとともに、前記識別情報を前記端末の表示部に表示させ、前記対話部は、前記他端末から受け付けた前記識別情報に関連付けられて前記記憶部に記憶されている対話の内容を引き継いで前記他端末のユーザとの対話を行ってもよい。 The presentation unit may store in a memory unit the content of the dialogue between the dialogue unit and the user in association with identification information for identifying the content of the dialogue, and may present to the user that the dialogue can be continued by using the other terminal, and may display the identification information on a display unit of the terminal, and the dialogue unit may take over the content of the dialogue stored in the memory unit in association with the identification information received from the other terminal, and may engage in a dialogue with the user of the other terminal.
前記他端末は、前記ユーザが所持する携帯端末であり、前記提示部は、前記対話部による前記ユーザとの対話の内容と、当該対話の内容を識別するための識別情報とを関連付けて記憶部に記憶させ、前記携帯端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示するとともに、前記識別情報を含み、前記携帯端末が前記対話の継続を要求するための対話継続用情報であって、前記携帯端末が読み取り可能な対話継続用情報を前記端末の表示部に表示させ、前記対話部は、前記対話継続用情報を読み取った前記携帯端末から前記識別情報を受信し、受信した前記識別情報に基づいて、前記端末において実施されていた対話の内容を引き継いで前記携帯端末のユーザとの対話を行ってもよい。 The other terminal is a mobile terminal owned by the user, and the presentation unit associates the content of the dialogue with the user by the dialogue unit with identification information for identifying the content of the dialogue and stores it in a storage unit, presents to the user that the dialogue can be continued by using the mobile terminal, and displays on a display unit of the terminal the dialogue continuation information that includes the identification information and is readable by the mobile terminal and is used by the mobile terminal to request the continuation of the dialogue, and the dialogue unit may receive the identification information from the mobile terminal that reads the dialogue continuation information, and based on the received identification information, continue the dialogue that was being carried out on the terminal and engage in a dialogue with the user of the mobile terminal.
前記取得部は、前記端末が集音した音情報を状況情報として取得し、前記第1判定部は、前記取得部が取得した前記音情報に基づいて前記ユーザの対話の内容を特定し、特定した対話の内容に基づいて、前記所定状況であるか否かを判定してもよい。 The acquisition unit may acquire sound information collected by the terminal as situation information, and the first determination unit may identify the content of the user's dialogue based on the sound information acquired by the acquisition unit, and determine whether or not the specified situation exists based on the identified content of the dialogue.
前記第1判定部は、特定した対話の内容が前記ユーザの金銭又は病気に関する内容である場合に、前記所定状況であると判定してもよい。 The first determination unit may determine that the specified situation exists when the content of the identified dialogue is related to the user's finances or illness.
前記取得部は、前記端末が集音した音情報を状況情報として取得し、前記第1判定部は、前記取得部が取得した前記音情報が示す周囲の音に複数の人の音声が含まれている場合に、前記所定状況であると判定してもよい。 The acquisition unit may acquire sound information collected by the terminal as situation information, and the first determination unit may determine that the predetermined situation exists when the surrounding sounds indicated by the sound information acquired by the acquisition unit include voices of multiple people.
前記取得部は、前記端末が集音した音情報を状況情報として取得し、前記第1判定部は、前記取得部が取得した前記音情報が示す前記ユーザの声が時間の経過とともに小さくなっている場合に、前記所定状況であると判定してもよい。 The acquisition unit may acquire sound information collected by the terminal as situation information, and the first determination unit may determine that the predetermined situation exists when the sound information acquired by the acquisition unit indicates that the user's voice is getting quieter over time.
前記取得部は、前記端末が集音した音情報を状況情報として取得し、前記第1判定部は、前記取得部が取得した前記音情報が示す前記ユーザの声を解析し、前記ユーザの声に、予め定められた特定のためらいを示す言葉が含まれている場合に、前記所定状況であると判定してもよい。 The acquisition unit may acquire sound information collected by the terminal as situation information, and the first determination unit may analyze the user's voice indicated by the sound information acquired by the acquisition unit, and determine that the specified situation exists when the user's voice includes a predetermined word indicating a specific hesitation.
前記取得部は、前記端末が撮像した前記端末の周囲の映像を示す映像情報を前記状況情報として取得し、前記第1判定部は、前記映像情報が示す映像に前記ユーザと、前記ユーザと異なる人が映っている場合に、前記異なる人が前記ユーザの関係者であるか否かを判定し、前記異なる人が前記ユーザの関係者ではないと判定すると、前記所定状況であると判定してもよい。 The acquisition unit may acquire video information showing an image of the surroundings of the terminal captured by the terminal as the situation information, and the first determination unit may determine whether the different person is related to the user when the image shown by the video information shows the user and a person other than the user, and may determine that the specified situation exists when it is determined that the different person is not related to the user.
前記第1判定部は、前記映像情報が示す映像に前記ユーザと異なる人が複数映っている場合に、複数の前記異なる人が互いに話していない、又は顔を合わせていない場合に、複数の前記異なる人が前記ユーザの関係者ではないと判定してもよい。
前記第1判定部は、前記映像情報が示す映像における前記ユーザの位置と前記異なる人との位置に基づいて、前記異なる人が前記ユーザの関係者であるか否かを判定してもよい。
The first judgment unit may determine that multiple people other than the user are not related to the user when the image indicated by the video information shows multiple people other than the user and the multiple people are not speaking to each other or not face to face.
The first determination unit may determine whether the different person is a related person of the user based on a position of the user and a position of the different person in the image represented by the image information.
本発明の第2の態様に係る情報処理方法は、コンピュータが実行する、端末が集音した音情報に基づいて前記端末を使用するユーザの音声を解析し、当該ユーザの音声に対する応答音声を前記端末に出力させることにより前記ユーザと対話するステップと、前記ユーザとの対話時に前記端末が収集した前記端末の周囲の状況を示す状況情報を取得するステップと、取得した前記状況情報に基づいて、前記ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定するステップと、前記所定状況であると判定したことに基づいて、前記端末と異なる場所において前記端末と異なる他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示するステップと、を有する。 The information processing method according to the second aspect of the present invention includes the steps of: analyzing the voice of a user using a terminal based on sound information collected by the terminal, and having the terminal output a response voice to the user's voice, executed by a computer, thereby interacting with the user; acquiring situation information indicating the situation around the terminal collected by the terminal during the interaction with the user; determining, based on the acquired situation information, whether or not the situation is a predetermined situation that makes it difficult for the user to have an interaction; and, based on the determination that the situation is the predetermined situation, presenting to the user that the interaction can be continued by using another terminal different from the terminal in a different location from the terminal.
本発明によれば、ユーザが対話を中止することを抑制することができるという効果を奏する。 The present invention has the effect of preventing users from abandoning a conversation.
[情報処理装置1の概要]
図1は、情報処理装置1の概要を示す図である。情報処理装置1は、例えば、小売店、金融機関等の店舗の店頭や役所に設置されている第1端末2の表示部、及び第1端末2とは異なる場所に設置されている第2端末3に、ユーザと対話を行う人物を表示させるとともに、これらの端末の出音部に当該人物の音声を出力させて、当該人物をユーザとの対話を行うように動作させるコンピュータである。情報処理装置1は、第1端末2及び第2端末3に通信可能に接続されている。
[Overview of information processing device 1]
1 is a diagram showing an overview of an information processing device 1. The information processing device 1 is a computer that displays a person who will have a conversation with a user on a display unit of a first terminal 2 installed, for example, at a storefront of a retail store, a financial institution, or a government office, and on a second terminal 3 installed in a location different from the first terminal 2, and outputs the voice of the person to a sound output unit of these terminals, thereby operating the person to have a conversation with the user. The information processing device 1 is communicably connected to the first terminal 2 and the second terminal 3.
第1端末2は、店舗や役所に来訪したユーザが初めに使用することが可能なパーソナルコンピュータやタブレット等のコンピュータである。第2端末3は、第1端末2と異なる場所に設置されているパーソナルコンピュータやタブレット等のコンピュータである。第2端末3は、例えば、第1端末2が設置されている位置に比べて周囲を人が通らない個室やブースに設けられているものとする。なお、第2端末3は、店舗や役所が提供する端末であるものとするが、これに限らず、ユーザが所有するスマートフォン等の携帯端末であってもよい。 The first terminal 2 is a computer such as a personal computer or tablet that can be used first by a user who visits a store or government office. The second terminal 3 is a computer such as a personal computer or tablet that is installed in a location different from the first terminal 2. The second terminal 3 is installed, for example, in a private room or booth where there are fewer people passing by compared to the location where the first terminal 2 is installed. Note that the second terminal 3 is a terminal provided by the store or government office, but is not limited to this, and may be a mobile terminal such as a smartphone owned by the user.
まず、情報処理装置1は、第1端末2がユーザから受け付けた対話に関する対話情報に基づいて第1端末2に対話情報に対応する応答情報を出力させることによりユーザと対話を行う。ユーザとの対話は、対話情報を受け付けたことに応じて繰り返し行われる。 First, the information processing device 1 has the first terminal 2 output response information corresponding to dialogue information based on dialogue information related to the dialogue received from the user by the first terminal 2, thereby having a dialogue with the user. The dialogue with the user is repeated in response to the reception of dialogue information.
情報処理装置1は、ユーザとの対話時に第1端末2が収集した第1端末2の周囲の状況を示す状況情報を取得する(図1における(1))。情報処理装置1は、取得した状況情報に基づいて、ユーザが対話しにくい状況として予め定められた所定状況であるかを判定する(図1における(2))。情報処理装置1は、所定状況であると判定すると、第1端末2と異なる場所において、他端末としての第2端末3を利用することにより対話の継続が可能であることを示す利用案内情報を第1端末2に提示する(図1における(3))。 The information processing device 1 acquires situation information indicating the situation around the first terminal 2 collected by the first terminal 2 during a dialogue with the user ((1) in FIG. 1). Based on the acquired situation information, the information processing device 1 determines whether the situation is a predetermined situation in which it is difficult for the user to dialogue ((2) in FIG. 1). If the information processing device 1 determines that the situation is a predetermined situation, it presents to the first terminal 2 usage guide information indicating that the dialogue can be continued by using the second terminal 3 as another terminal in a location different from the first terminal 2 ((3) in FIG. 1).
これにより、ユーザは、第2端末3が設置されている場所に移動し、第2端末3を利用することにより、第1端末2を用いて行われていた対話を継続することができる。このようにすることで、情報処理装置1は、ユーザが対話しにくいことを理由として、ユーザが対話を中止することを抑制することができる。 As a result, the user can move to the location where the second terminal 3 is installed and use the second terminal 3 to continue the conversation that was taking place using the first terminal 2. In this way, the information processing device 1 can prevent the user from abandoning the conversation because it is difficult for the user to have a conversation.
[情報処理装置1の機能構成]
続いて、情報処理装置1の機能について説明する。図2は、情報処理装置1の機能構成を示す図である。情報処理装置1は、通信部11と、記憶部12と、制御部13とを有する。
[Functional configuration of information processing device 1]
Next, a description will be given of functions of the information processing device 1. Fig. 2 is a diagram showing the functional configuration of the information processing device 1. The information processing device 1 has a
通信部11は、インターネットや携帯電話回線等の通信ネットワークを介して第1端末2及び第2端末3等の外部装置とデータを送受信するための通信インターフェースである。
記憶部12は、各種のデータを記憶する記憶媒体であり、ROM(Read Only Memory)、RAM(Random Access Memory)、及びハードディスク等を有する。記憶部12は、制御部13が実行するプログラムを記憶する。記憶部12は、制御部13を、対話部131、取得部132、第1判定部133、提示部134及び第2判定部135として機能させるプログラムを記憶する。
The
The
制御部13は、例えばCPU(Central Processing Unit)である。制御部13は、記憶部12に記憶されたプログラムを実行することにより、対話部131、取得部132、第1判定部133、提示部134及び第2判定部135として機能する。
The
[対話部131が行う対話方式]
対話部131は、第1端末2又は第2端末3がユーザから受け付けた対話に関する対話情報に基づいて端末に対話情報に対応する応答情報を出力させることによりユーザと対話を行う。なお、以下の説明において、第1端末2及び第2端末3を区別しない場合、第1端末2及び第2端末3を単に端末という。
[Dialogue method performed by dialogue unit 131]
The
対話部131は、例えば、端末の表示部に、ユーザと対話を行う人物として、例えばコンピュータグラフィックスを用いて生成された仮想の人物であるバーチャルヒューマンを表示させる。そして、対話部131は、ユーザからの回答に応じて、端末の出音部にバーチャルヒューマンの音声を出力させたり、バーチャルヒューマンのメッセージを端末の表示部に出力させたり、バーチャルヒューマンの表情を変化させたりしながら、バーチャルヒューマンとユーザとの対話を実現する。
The
本実施の形態において、対話部131は、例えば音声対話方式によりユーザと対話を行う。図3は、音声対話方式を説明するための図である。まず、取得部132は、音声対話方式を実現するために、端末が集音した音情報を、対話情報として端末から取得する。
In this embodiment, the
音声対話方式は、端末が集音した音情報に含まれるユーザの音声を解析し、当該ユーザの音声に対する応答音声を応答情報として端末に出力させることによりユーザと対話する対話方式である。音声対話方式では、図3に示すようにバーチャルヒューマンが端末の表示部に表示され、応答音声が端末から出力されるとともに、バーチャルヒューマンが応答音声を話すように表示が制御される。 The voice dialogue method is an interaction method in which a terminal analyzes the user's voice contained in the sound information collected by the terminal, and has the terminal output a response voice to the user's voice as response information, thereby interacting with the user. In the voice dialogue method, as shown in Figure 3, a virtual human is displayed on the display unit of the terminal, the response voice is output from the terminal, and the display is controlled so that the virtual human speaks the response voice.
なお、本実施の形態では、対話部131は、音声対話方式によりユーザと対話を行うこととしたが、これに限らない。対話部131は、第1端末2の表示部に一以上の回答の候補を応答情報として表示させ、第1端末2の表示部に重畳して配置されるタッチパネルやボタン等の操作部を介してユーザからの回答を対話情報として受け付けることによりユーザと対話する選択対話方式によりユーザと対話を行うこととしてもよい。なお、音声対話方式における応答音声や、選択対話方式における応答情報は、例えば、生成AI(Artificial Intelligence)を用いることにより生成されてもよい。
In this embodiment, the
また、取得部132は、端末が第1端末2であるか、第2端末3であるかを特定できるようにするために、端末が第1端末2であるか第2端末3であるかを示す端末種別情報を取得する。
The
[対話しにくい状況であるかの判定]
取得部132と第1判定部133とは、協働することにより、ユーザがバーチャルヒューマンと対話している場合に、ユーザが対話しにくい状況として予め定められた所定状況であるかを判定する。
[Determining whether a situation is difficult for dialogue]
The
まず、取得部132は、対話部131によるバーチャルヒューマンとユーザとの対話時に第1端末2が収集した第1端末2の周囲の状況を示す状況情報を取得する。例えば、取得部132は、対話部131によるユーザとの対話時に第1端末2が集音した、ユーザの音声及び第1端末2の周囲の音を含む音情報を状況情報として取得する。また、取得部132は、第1端末2に設けられている第1端末2の周囲を撮像する撮像装置が撮像した、第1端末2の周囲の映像を示す映像情報を状況情報として取得する。
First, the
第1判定部133は、取得部132が取得した状況情報に基づいて、ユーザの状況が、ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定する。所定状況は、例えば、ユーザが第1端末2の周囲の他のユーザの存在が気になっていたり、声を出してバーチャルヒューマンと対話することが恥ずかしかったりすることにより対話しにくい状況である。
The
第1判定部133は、取得部132が取得した端末種別情報が示す端末の種別が第1端末2を示している場合、ユーザの状況が、所定状況であるか否かを判定する。なお、第1判定部133は、ユーザが使用している端末が第1端末2であるか第2端末3であるかに関わらず、ユーザの状況が、所定状況であるか否かを判定してもよい。
When the terminal type information acquired by the
第1判定部133は、取得部132が取得した音情報に基づいてユーザの対話の内容を特定し、特定した対話の内容に基づいて、所定状況であるか否かを判定する。例えば、第1判定部133は、取得部132が状況情報として取得した音情報を解析し、ユーザの音声と、ユーザの音声とは異なる音である周囲の音とを特定する。第1判定部133は、音情報から特定したユーザの音声を解析することにより、ユーザの対話の内容を特定する。第1判定部133は、ユーザの音声から特定した対話の内容がユーザの金銭又は病気に関する内容である場合に、所定状況であると判定する。例えば、金銭に関する対話の内容は、ローン等の融資や、ユーザの資産運用に関する相談である。また、病気に関する内容は、ユーザ又はユーザの関係者の治療等の医療に関する相談や、保険に関する相談である。例えば、予め記憶部12に、金銭又は病気に関するキーワードを記憶させておく。そして、第1判定部133は、ユーザの音声から特定した対話の内容を示すテキスト情報に、記憶部12に記憶されているキーワードが含まれている場合に所定状況であると判定する。
The
また、第1判定部133は、音情報に含まれる周囲の音に複数の人の音声が含まれている場合に、所定状況であると判定する。また、第1判定部133は、音情報が示すユーザの声が時間の経過とともに小さくなっている場合に、所定状況であると判定する。
The
また、第1判定部133は、音情報が示すユーザの声を解析し、ユーザの声に、予め定められた、「えーと」や「あのー」や「すみません」といった、特定のためらいを示す言葉が含まれている場合に、所定状況であると判定する。
In addition, the
また、第1判定部133は、取得部132が状況情報として取得した映像情報が示す映像を解析し、当該映像にユーザの関係者ではない人が映っている場合に、所定状況と判定する。例えば、第1判定部133は、取得部132が取得した映像情報が示す映像に、ユーザと、ユーザと異なる人とが映っているか否かを判定する。
The
そして、第1判定部133は、当該映像に、ユーザと、ユーザと異なる人とが映っていると判定すると、当該異なる人がユーザの関係者であるか否かを判定する。第1判定部133は、映像に映っている異なる人の状態に基づいて、映像にユーザの関係者ではない人が映っているか否かを判定する。
When the
例えば、第1判定部133は、取得部132が取得した映像情報を解析し、当該映像にユーザと異なる人が複数映っている場合に、複数の異なる人が互いに話していないか、顔を合わせていないかを判定する。第1判定部133は、複数の異なる人が互いに話していない、又は顔を合わせていないと判定すると、複数の異なる人がユーザの関係者ではないと判定し、映像にユーザの関係者ではない人が映っていると判定する。
For example, the
また、第1判定部133は、複数の異なる人が互いに話していない、又は顔を合わせていないと判定すると、複数の異なる人がユーザの関係者ではないと判定したが、これに限らない。第1判定部133は、取得部132が取得した映像情報が示す映像におけるユーザの位置と、異なる人の位置とに基づいて、異なる人がユーザの関係者であるか否かを判定してもよい。
In addition, the
例えば、第1判定部133は、当該映像に映っている全ての異なる人の位置がユーザの位置の横側の位置である場合に、当該異なる人がユーザの関係者であると判定し、映像にユーザの関係者ではない人が映っていないと判定する。また、第1判定部133は、全ての異なる人の位置がユーザの位置の横側の位置ではない場合、映像にユーザの関係者ではない人が映っていると判定する。このようにすることで、情報処理装置1は、例えば、ユーザと異なるユーザが第1端末2を利用するためにユーザの後方に並んでいたり、ユーザの後方を移動したりしている場合に、第1端末2の周囲の状況が所定状況であると判定することができる。
For example, if all the different people shown in the video are located to the side of the user's position, the
なお、上述の説明では、第1判定部133は、取得部132が取得した音情報と映像情報とのそれぞれに基づいてユーザの状況が所定状況であるかを判定したが、これに限らない。第1判定部133は、取得部132が取得した音情報と映像情報とに基づいて、所定状況であるかを判定してもよい。例えば、第1判定部133は、取得部132が取得した音情報と映像情報とのそれぞれに基づいて所定状況である確からしさを示すスコアを算出し、算出したスコアの合計が所定の閾値を超えると所定状況であると判定してもよい。
In the above description, the
なお、ユーザが対話しにくい状況として予め定められた所定状況は、例えば、ユーザが第1端末2の周囲の他のユーザの存在が気になっていることにより対話しにくい状況であることとしたが、これに限らない。所定状況は、第1端末2の周囲が騒がしいことによりユーザが対話しにくい状況であってもよい。第1判定部133は、音情報に含まれる周囲の音の音量が所定の音量以上である場合に、所定状況であると判定してもよい。
Note that the predetermined situation in which it is difficult for the user to have a conversation is, for example, a situation in which it is difficult for the user to have a conversation because the user is concerned about the presence of other users around the first terminal 2, but is not limited to this. The predetermined situation may also be a situation in which it is difficult for the user to have a conversation because the surroundings of the first terminal 2 are noisy. The
[他端末を利用した対話の継続]
提示部134は、所定状況であると第1判定部133が判定したことに基づいて、第1端末2と異なる場所において当該第1端末2と異なる他端末としての第2端末3を利用することにより対話の継続が可能であることをユーザに提示する。
[Continuing conversation using other devices]
Based on the
例えば、提示部134は、所定状況であると第1判定部133が判定すると、第1端末2と異なる場所に配置されている第2端末3を利用することによりバーチャルヒューマンとの対話を継続可能なことを示す利用案内情報を第1端末2に表示させることにより、対話の継続が可能であることをユーザに提示する。利用案内情報には、例えば第2端末3の設置場所を示す情報が含まれている。
For example, when the
この場合、対話部131は、第1判定部133が所定状況であると判定したことに応じて、ユーザに、第1端末2の場所においてユーザが対話しにくいか否かを問い合わせてもよい。そして、提示部134は、ユーザが対話しにくいことを示す回答を対話部131が受け付けたことに応じて、利用案内情報を第1端末2に提示することにより、第2端末3を利用することにより対話の継続が可能であることをユーザに提示してもよい。これにより、ユーザは、第2端末3が設置されている個室やブースに移動し、第2端末3を利用して対話を行うことができる。
In this case, in response to the
第2判定部135は、対話部131による対話開始時に、取得部132が取得した端末種別情報に基づいて、対話が開始された端末が第1端末2であるか、第2端末3であるかを特定する。第2判定部135は、他端末としての第2端末3において対話が開始されたことを特定すると、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであるかを判定する。例えば、第2判定部は、第1端末2が集音した音情報が示す音声の特徴と、第2端末3から集音した音情報が示す音声の特徴とに基づいて、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであるかを判定する。
When the
この場合、例えば、提示部134は、第1端末2から取得された音情報に含まれるユーザの音声の特徴を示す特徴情報と、当該ユーザとバーチャルヒューマンとの対話の内容とを関連付けて記憶部12に記憶させておく。第2判定部135は、第2端末3が集音した音を示す音情報を取得部132が取得すると、当該音情報に含まれるユーザの音声の特徴を特定し、特定した特徴に対応する特徴情報が記憶部12に記憶されている場合に、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであると判定する。
In this case, for example, the
対話部131は、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであると第2判定部135が判定したことに基づいて、第2判定部が特定したユーザの音声の特徴を示す特徴情報に関連付けられている対話の内容を、第1端末2において実施されていた対話の内容と特定する。そして、対話部131は、特定した第1端末2において実施されていた対話の内容を引き継いで第2端末3のユーザとの対話を行う。
Based on the
なお、第2判定部135は、第1端末2が集音した音情報が示す音声の特徴と、第2端末3から集音した音情報が示す音声の特徴とに基づいて、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであるかを判定したが、これに限らない。
Note that the
第2判定部135は、取得部132が第1端末2と第2端末3とのそれぞれから取得した映像情報に映るユーザの特徴を比較して、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであるかを判定してもよい。また、第2判定部135は、第1端末2及び第2端末3が集音した音情報が示す音声の特徴と、第1端末2及び第2端末3が取得した映像情報が示すユーザの特徴とに基づいて、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであるかを判定してもよい。また、第2判定部135は、第1端末2を使用していたユーザを特定するための情報を第2端末3から取得したか否かに基づいて、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであるかを判定してもよい。
The
この場合、提示部134は、第2端末3を利用することにより対話の継続が可能であることをユーザに提示するとともに、第1端末2を使用していたユーザを特定するための情報としての、対話の内容を識別するための対話識別情報を第2端末3の表示部に表示させる。対話識別情報は、例えば、予め定められた合言葉やキーワードである。また、提示部134は、利用案内情報の提示時に、対話部131によるユーザとの対話の内容と、対話識別情報とを関連付けて記憶部12に記憶させる。
In this case, the
対話部131は、第2端末3において対話を開始する場合に、ユーザとバーチャルヒューマンとで既に対話が行われており対話の継続を行うか否かの選択を受け付ける。対話部131は、対話の継続を行う選択を受け付けると、第2端末3を介してユーザから対話識別情報を受け付ける。
When starting a dialogue on the second terminal 3, the
第2判定部135は、ユーザから受け付けた対話識別情報が記憶部12に記憶されている場合に、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであると判定する。
When the dialogue identification information received from the user is stored in the
対話部131は、第2端末3を介してユーザから受け付けた対話識別情報が記憶部12に記憶されており、第1端末2を使用していたユーザと、第2端末3を使用しているユーザとが同一のユーザであると第2判定部135により判定された場合、当該対話識別情報に関連付けられている対話の内容を引き継いで端末のユーザと対話を行う。
The
また、提示部134は、ユーザの携帯端末を利用することにより対話の継続が可能であることを第1端末2に表示させることにより、対話の継続が可能であることをユーザに提示するとともに、対話識別情報を含み、当該携帯端末が対話の継続を要求するための対話継続用情報であって、携帯端末が読み取り可能な対話継続用情報を第1端末2の表示部に表示させてもよい。
The
ここで、対話継続用情報は、バーチャルヒューマンとの対話を継続するための対話用ウェブページのアドレスである。対話用ウェブページのアドレスは、情報処理装置1のアドレスであり、当該アドレスには、対話識別情報がパラメータとして含まれている。提示部134は、対話継続用情報を示すQRコード(登録商標)等の二次元コードを第1端末2の表示部に表示させる。
Here, the dialogue continuation information is the address of a dialogue webpage for continuing the dialogue with the virtual human. The dialogue webpage address is the address of the information processing device 1, and this address includes dialogue identification information as a parameter. The
対話部131は、二次元コードがユーザの携帯端末により読み取られ、当該携帯端末が対話用ウェブページにアクセスしたことに応じて、対話用ウェブページを介してバーチャルヒューマンを用いた対話を開始することができる。
When the two-dimensional code is read by the user's mobile terminal and the mobile terminal accesses the dialogue web page, the
対話部131は、対話継続用情報を読み取った第2端末3としての携帯端末から対話識別情報を受信する。例えば、第2端末3としてのユーザの携帯端末が、対話継続用情報を読み取り情報処理装置1にアクセスすることにより、対話部131は、当該対話継続用情報に含まれている対話識別情報を受信する。そして、対話部131は、受信した対話識別情報に基づいて、第1端末2において実施されていた対話の内容を引き継いで携帯端末のユーザとの対話を行う。このようにすることで、ユーザは、二次元コードを読み取るという簡単な操作で、第1端末2において行われていたバーチャルヒューマンとの対話を継続することができる。
The
[フローチャート]
続いて、情報処理装置1の処理の流れについて説明する。図4は、情報処理装置1における処理の流れを示すフローチャートである。本フローチャートの処理は、第1端末2又は第2端末3においてユーザから対話の開始指示を受け付けたことに応じて開始される。なお、本フローチャートでは図示は省略するが、取得部132は、第1端末2又は第2端末3が収集した音声情報を含む状況情報を随時取得するものとする。
[flowchart]
Next, a description will be given of the flow of processing in the information processing device 1. Fig. 4 is a flowchart showing the flow of processing in the information processing device 1. The processing in this flowchart is started in response to receipt of an instruction to start a dialogue from a user at the first terminal 2 or the second terminal 3. Although not shown in the flowchart, the
まず、第2判定部135は、第1端末2による対話が開始されたかを判定する(S1)。第2判定部135は、第1端末2による対話が開始されたと判定すると(S1のYES)、S2に処理を移し、第1端末2による対話が開始されていない、すなわち、第2端末3による対話が開始されたと判定すると(S1のNO)、S6に処理を移す。
First, the
続いて、制御部13は、対話部131による対話が終了したか否かを判定する(S2)。制御部13は、対話部131による対話が終了したと判定すると(S2のYES)、本フローチャートに係る処理を終了し、対話部131による対話が終了していないと判定すると(S2のNO)、S3に処理を移す。
Next, the
続いて、第1判定部133は、ユーザの状況が所定状況であるか否かを判定する(S3)。第1判定部133は、ユーザの状況が所定状況であると判定すると(S3のYES)、S4に処理を移し、ユーザの状況が所定状況ではないと判定すると(S3のNO)、S2に処理を移す。
Next, the
続いて、提示部134は、第1端末2と異なる場所に配置されている第2端末3を利用することによりバーチャルヒューマンとの対話を継続可能なことを示す利用案内情報を第1端末2に表示させる(S4)。また、提示部134は、第1端末2から取得された音情報に含まれるユーザの音声の特徴を示す特徴情報と、当該ユーザとバーチャルヒューマンとの対話の内容とを関連付けて記憶部12に記憶させ(S5)、本フローチャートの処理を終了する。
Then, the
S6において、第2判定部135は、第2端末3を使用しているユーザが第1端末2と同一ユーザであるか、すなわち、第2端末3を使用しているユーザが第1端末2を使用していたユーザと同一のユーザであるかを判定する。第2判定部135は、第1端末2を使用していたユーザと同一のユーザであると判定すると(S6のYES)、S7に処理を移し、第1端末2を使用していたユーザと同一のユーザではないと判定すると(S6のNO)、S8に処理を移す。
In S6, the
S7において、対話部131は、第2判定部が特定したユーザの音声の特徴を示す特徴情報に関連付けられて記憶部12に記憶されている対話の内容を、第1端末2において実施されていた対話の内容と特定し、特定した第1端末2における対話の内容を引き継いで第2端末3のユーザとの対話を実施する。
In S7, the
続いて、制御部13は、対話部131による対話が終了したか否かを判定する(S8)。制御部13は、対話部131による対話が終了したと判定すると(S8のYES)、本フローチャートに係る処理を終了し、対話部131による対話が終了していないと判定すると(S8のNO)、S8を再実行する。
Next, the
[変形例]
なお、上述の実施の形態では、提示部134は、所定状況であると第1判定部133が判定した場合に、第2端末3を利用することにより対話の継続が可能であることをユーザに提示したが、これに限らない。提示部134は、所定状況であると第1判定部133が判定した場合に、第2端末3を利用することによる対話継続の案内と、選択対話方式での対話継続の案内の両方を出力し、2つの対話継続方法のうちどちらを選択するかを受け付けるようにしてもよい。そして、提示部134は、選択対話方式での対話継続を受け付けた場合には、対話方式を音声対話方式から選択対話方式に切り替えてもよい。
[Modification]
In the above embodiment, when the
また、提示部134は、第1判定部133が所定状況と判定したときのユーザの対話の内容に基づいて、第2端末3を利用することによる対話継続を案内するか、選択対話方式での対話継続を案内するかを制御してもよい。例えば、提示部134は、第1判定部133が所定状況と判定したときのユーザの対話の内容が、ユーザの金銭又は病気に関する内容である場合に、第2端末3を利用することによる対話継続を案内し、ユーザの対話の内容がユーザの金銭又は病気に関する内容ではない場合に、選択対話方式での対話継続を案内してもよい。このようにすることで、情報処理装置1は、ユーザの対話の内容がユーザの金銭又は病気に関する内容ではなく、ユーザのプライバシーに関する情報が他のユーザに漏れない場合に、ユーザが第1端末2において対話を継続しやすくすることができる。
The
[情報処理装置1による効果]
以上説明したように、本実施の形態に係る情報処理装置1は、第1端末2を使用したユーザとの対話時にユーザが対話しにくい状況として予め定められた所定状況であると判定したことに基づいて、第1端末2と異なる場所において第2端末3を利用することにより対話の継続が可能であることをユーザに提示する。このようにすることで、情報処理装置1は、ユーザが対話を中止することを抑制することができる。
[Effects of information processing device 1]
As described above, the information processing device 1 according to the present embodiment, when a conversation with a user using the first terminal 2 is determined to be in a predetermined situation in which it is difficult for the user to have a conversation, presents to the user that the conversation can be continued by using the second terminal 3 in a location different from the first terminal 2. In this way, the information processing device 1 can prevent the user from stopping the conversation.
なお、本発明により、国連が主導する持続可能な開発目標(SDGs)の目標9「産業と技術革新の基盤をつくろう」に貢献することが可能となる。 Furthermore, this invention will make it possible to contribute to Goal 9 of the United Nations' Sustainable Development Goals (SDGs), which is "Build resilient infrastructure, promote inclusive and sustainable industrialization, and promote innovation and infrastructure."
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist of the invention. For example, all or part of the device can be configured by distributing or integrating functionally or physically in any unit. In addition, new embodiments resulting from any combination of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment resulting from the combination also has the effect of the original embodiment.
1 情報処理装置
2 第1端末
3 第2端末
11 通信部
12 記憶部
13 制御部
131 対話部
132 取得部
133 第1判定部
134 提示部
135 第2判定部
REFERENCE SIGNS LIST 1 Information processing device 2 First terminal 3
Claims (15)
前記対話部による前記ユーザとの対話時に前記端末が収集した前記端末の周囲の状況を示す状況情報を取得する取得部と、
前記取得部が取得した前記状況情報に基づいて、前記ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定する第1判定部と、
前記所定状況であると前記第1判定部が判定したことに基づいて、前記端末と異なる場所において前記端末と異なる他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示する提示部と、
前記他端末が音情報を集音すると、前記端末が集音した音情報と、前記他端末から集音した音情報とに基づいて、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであるかを判定する第2判定部と、
を有し、
前記対話部は、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであると前記第2判定部が判定したことに基づいて、前記端末において実施されていた対話の内容を引き継いで前記他端末のユーザとの対話を行う、
情報処理装置。 a dialogue unit that analyzes the voice of a user using the terminal based on sound information collected by the terminal and communicates with the user by causing the terminal to output a response voice to the user's voice;
an acquisition unit that acquires situation information indicating a situation around the terminal collected by the terminal during a dialogue between the dialogue unit and the user;
a first determination unit that determines whether or not the situation is a predetermined situation that is determined in advance as a situation in which it is difficult for the user to have a conversation, based on the situation information acquired by the acquisition unit;
a presentation unit that presents to the user, based on the first determination unit's determination that the predetermined situation exists, that the conversation can be continued by using another terminal different from the terminal at a location different from the terminal;
a second determination unit that, when the other terminal collects sound information, determines whether a user who used the terminal and a user who uses the other terminal are the same user based on the sound information collected by the terminal and the sound information collected from the other terminal;
having
The dialogue unit, based on the determination by the second determination unit that the user who used the terminal and the user who uses the other terminal are the same user, takes over the content of the dialogue that was being carried out at the terminal and conducts a dialogue with the user of the other terminal.
Information processing device.
請求項1に記載の情報処理装置。 The second determination unit determines whether a user who has used the terminal and a user who is using the other terminal are the same user based on a voice characteristic indicated by the sound information collected by the terminal and a voice characteristic indicated by the sound information collected from the other terminal.
The information processing device according to claim 1 .
前記対話部による前記ユーザとの対話時に前記端末が収集した前記端末の周囲の状況を示す状況情報を取得する取得部と、
前記取得部が取得した前記状況情報に基づいて、前記ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定する第1判定部と、
前記所定状況であると前記第1判定部が判定したことに基づいて、前記端末と異なる場所において前記端末と異なる他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示する提示部と、
前記他端末において対話が開始されたことを特定すると、前記端末から取得した映像情報と、前記他端末から取得した映像情報とに基づいて、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであるかを判定する第2判定部と、
を有し、
前記対話部は、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであると前記第2判定部が判定したことに基づいて、前記端末において実施されていた対話の内容を引き継いで前記他端末のユーザとの対話を行う、
情報処理装置。 a dialogue unit that analyzes the voice of a user using the terminal based on sound information collected by the terminal and communicates with the user by causing the terminal to output a response voice in response to the user's voice;
an acquisition unit that acquires situation information indicating a situation around the terminal collected by the terminal during a dialogue between the dialogue unit and the user;
a first determination unit that determines whether or not the situation is a predetermined situation that is determined in advance as a situation in which it is difficult for the user to have a conversation, based on the situation information acquired by the acquisition unit;
a presentation unit that presents to the user, based on the first determination unit's determination that the predetermined situation exists, that the conversation can be continued by using another terminal different from the terminal at a location different from the terminal;
a second determination unit that, when it is determined that a dialogue has started at the other terminal, determines whether a user who has been using the terminal and a user who is using the other terminal are the same user, based on video information acquired from the terminal and video information acquired from the other terminal;
having
The dialogue unit, based on the determination by the second determination unit that the user who used the terminal and the user who uses the other terminal are the same user, takes over the content of the dialogue that was being carried out at the terminal and conducts a dialogue with the user of the other terminal.
Information processing device.
前記対話部は、前記他端末から受け付けた前記識別情報に関連付けられて前記記憶部に記憶されている対話の内容を引き継いで前記他端末のユーザとの対話を行う、
請求項1又は3に記載の情報処理装置。 the presentation unit causes a content of the dialogue between the dialogue unit and the user to be associated with identification information for identifying the content of the dialogue and to be stored in a storage unit, presents to the user that the dialogue can be continued by using the other terminal, and displays the identification information on a display unit of the terminal;
the dialogue unit takes over the content of the dialogue stored in the storage unit in association with the identification information received from the other terminal and dialogues with the user of the other terminal;
The information processing device according to claim 1 .
前記提示部は、前記対話部による前記ユーザとの対話の内容と、当該対話の内容を識別するための識別情報とを関連付けて記憶部に記憶させ、前記携帯端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示するとともに、前記識別情報を含み、前記携帯端末が前記対話の継続を要求するための対話継続用情報であって、前記携帯端末が読み取り可能な対話継続用情報を前記端末の表示部に表示させ、
前記対話部は、前記対話継続用情報を読み取った前記携帯端末から前記識別情報を受信し、受信した前記識別情報に基づいて、前記端末において実施されていた対話の内容を引き継いで前記携帯端末のユーザとの対話を行う、
請求項1又は3に記載の情報処理装置。 the other terminal is a mobile terminal owned by the user,
the presentation unit causes a content of the dialogue between the dialogue unit and the user to be associated with identification information for identifying the content of the dialogue and stores the associated content in a storage unit, presents to the user that the dialogue can be continued by using the mobile terminal, and displays, on a display unit of the terminal, dialogue continuation information including the identification information and readable by the mobile terminal for the mobile terminal to request the continuation of the dialogue;
the dialogue unit receives the identification information from the mobile terminal that has read the dialogue continuation information, and continues a dialogue with the user of the mobile terminal based on the received identification information, taking over the content of the dialogue that was being carried out on the terminal.
The information processing device according to claim 1 .
前記第1判定部は、前記取得部が取得した前記音情報に基づいて前記ユーザの対話の内容を特定し、特定した対話の内容に基づいて、前記所定状況であるか否かを判定する、
請求項1又は3に記載の情報処理装置。 The acquisition unit acquires sound information collected by the terminal as situation information,
The first determination unit identifies a content of a dialogue of the user based on the sound information acquired by the acquisition unit, and determines whether or not the predetermined situation exists based on the content of the identified dialogue.
The information processing device according to claim 1 .
請求項6に記載の情報処理装置。 The first determination unit determines that the predetermined situation exists when the content of the identified dialogue is related to money or illness of the user.
The information processing device according to claim 6.
前記第1判定部は、前記取得部が取得した前記音情報が示す周囲の音に複数の人の音声が含まれている場合に、前記所定状況であると判定する、
請求項1又は3に記載の情報処理装置。 The acquisition unit acquires sound information collected by the terminal as situation information,
The first determination unit determines that the predetermined situation exists when the ambient sound indicated by the sound information acquired by the acquisition unit includes voices of a plurality of people.
The information processing device according to claim 1 .
前記第1判定部は、前記取得部が取得した前記音情報が示す前記ユーザの声が時間の経過とともに小さくなっている場合に、前記所定状況であると判定する、
請求項1又は3に記載の情報処理装置。 The acquisition unit acquires sound information collected by the terminal as situation information,
The first determination unit determines that the predetermined situation exists when the voice of the user indicated by the sound information acquired by the acquisition unit is getting quieter over time.
The information processing device according to claim 1 .
前記第1判定部は、前記取得部が取得した前記音情報が示す前記ユーザの声を解析し、前記ユーザの声に、予め定められた特定のためらいを示す言葉が含まれている場合に、前記所定状況であると判定する、
請求項1又は3に記載の情報処理装置。 The acquisition unit acquires sound information collected by the terminal as situation information,
The first determination unit analyzes a voice of the user indicated by the sound information acquired by the acquisition unit, and determines that the predetermined situation exists when the voice of the user includes a word indicating a predetermined specific hesitation.
The information processing device according to claim 1 .
前記第1判定部は、前記端末が撮像した映像情報が示す映像に前記ユーザと、前記ユーザと異なる人が映っている場合に、前記異なる人が前記ユーザの関係者であるか否かを判定し、前記異なる人が前記ユーザの関係者ではないと判定すると、前記所定状況であると判定する、
請求項1又は3に記載の情報処理装置。 The acquisition unit acquires, as the situation information, image information indicating an image of the surroundings of the terminal captured by the terminal;
When the video information captured by the terminal shows the user and a person other than the user, the first determination unit determines whether the person other than the user is a person related to the user, and when the first determination unit determines that the person other than the user is not a person related to the user, the first determination unit determines that the predetermined situation exists.
The information processing device according to claim 1 .
請求項11に記載の情報処理装置。 The first determination unit, when a plurality of people different from the user are shown in an image represented by the image information captured by the terminal , determines that the plurality of people different from the user are not related to the user when the plurality of people different from the user are not talking to each other or are not face to face.
The information processing device according to claim 11.
請求項11に記載の情報処理装置。 The first determination unit determines whether the different person is a relative of the user based on a position of the user and a position of the different person in a video represented by video information captured by the terminal .
The information processing device according to claim 11.
端末が集音した音情報に基づいて前記端末を使用するユーザの音声を解析し、当該ユーザの音声に対する応答音声を前記端末に出力させることにより前記ユーザと対話するステップと、
前記ユーザとの対話時に前記端末が収集した前記端末の周囲の状況を示す状況情報を取得するステップと、
取得した前記状況情報に基づいて、前記ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定するステップと、
前記所定状況であると判定したことに基づいて、前記端末と異なる場所において前記端末と異なる他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示するステップと、
前記他端末が音情報を集音すると、前記端末が集音した音情報と、前記他端末から集音した音情報とに基づいて、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであるかを判定するステップと、
を有し、
前記対話するステップにおいて、前記コンピュータは、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであると判定されたことに基づいて、前記端末において実施されていた対話の内容を引き継いで前記他端末のユーザとの対話を行う、
情報処理方法。 The computer executes
a step of analyzing a voice of a user using the terminal based on sound information collected by the terminal, and having the terminal output a response voice in response to the user's voice, thereby interacting with the user;
acquiring situation information indicating a situation around the terminal collected by the terminal during a dialogue with the user;
determining whether or not the situation is a predetermined situation that is determined in advance as a situation in which it is difficult for the user to have a conversation based on the acquired situation information;
based on the determination that the predetermined situation exists, presenting to the user that the conversation can be continued by using another terminal different from the terminal at a location different from the terminal;
When the other terminal collects sound information, determining whether the user who used the terminal and the user who is using the other terminal are the same user based on the sound information collected by the terminal and the sound information collected from the other terminal;
having
In the step of interacting, the computer takes over the content of the interaction that was being carried out at the terminal and interacts with the user of the other terminal based on the determination that the user who was using the terminal and the user who is using the other terminal are the same user.
Information processing methods.
端末が集音した音情報に基づいて前記端末を使用するユーザの音声を解析し、当該ユーザの音声に対する応答音声を前記端末に出力させることにより前記ユーザと対話するステップと、
前記ユーザとの対話時に前記端末が収集した前記端末の周囲の状況を示す状況情報を取得するステップと、
取得した前記状況情報に基づいて、前記ユーザが対話しにくい状況として予め定められた所定状況であるか否かを判定するステップと、
前記所定状況であると判定したことに基づいて、前記端末と異なる場所において前記端末と異なる他端末を利用することにより前記対話の継続が可能であることを前記ユーザに提示するステップと、
前記他端末において対話が開始されたことを特定すると、前記端末から取得した映像情報と、前記他端末から取得した映像情報とに基づいて、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであるかを判定するステップと、
を有し、
前記対話するステップにおいて、前記コンピュータは、前記端末を使用していたユーザと、前記他端末を使用しているユーザとが同一のユーザであると判定されたことに基づいて、前記端末において実施されていた対話の内容を引き継いで前記他端末のユーザとの対話を行う、
情報処理方法。 The computer executes
a step of analyzing a voice of a user using the terminal based on sound information collected by the terminal, and having the terminal output a response voice in response to the user's voice, thereby interacting with the user;
acquiring situation information indicating a situation around the terminal collected by the terminal during a dialogue with the user;
determining whether or not the situation is a predetermined situation that is determined in advance as a situation in which it is difficult for the user to have a conversation based on the acquired situation information;
based on the determination that the predetermined situation exists, presenting to the user that the conversation can be continued by using another terminal different from the terminal at a location different from the terminal;
when it is determined that a dialogue has started at the other terminal, determining whether the user who has been using the terminal and the user who is using the other terminal are the same user based on video information acquired from the terminal and video information acquired from the other terminal;
having
In the step of interacting, the computer takes over the content of the interaction that was being carried out at the terminal and interacts with the user of the other terminal based on the determination that the user who was using the terminal and the user who is using the other terminal are the same user.
Information processing methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2025029081A JP7693962B1 (en) | 2025-02-26 | 2025-02-26 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2025029081A JP7693962B1 (en) | 2025-02-26 | 2025-02-26 | Information processing device and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7693962B1 true JP7693962B1 (en) | 2025-06-17 |
Family
ID=96055191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2025029081A Active JP7693962B1 (en) | 2025-02-26 | 2025-02-26 | Information processing device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7693962B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158792A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
WO2019187590A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019211966A (en) * | 2018-06-04 | 2019-12-12 | シャープ株式会社 | Control device, dialogue device, control method, and program |
WO2021130999A1 (en) * | 2019-12-26 | 2021-07-01 | 富士通株式会社 | Conversation control program, conversation control method, and information processing device |
-
2025
- 2025-02-26 JP JP2025029081A patent/JP7693962B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016158792A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
WO2019187590A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2019211966A (en) * | 2018-06-04 | 2019-12-12 | シャープ株式会社 | Control device, dialogue device, control method, and program |
WO2021130999A1 (en) * | 2019-12-26 | 2021-07-01 | 富士通株式会社 | Conversation control program, conversation control method, and information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7065711B2 (en) | Information processing device and method, and recording medium | |
EP3951604A1 (en) | Communication assistance system, communication assistance method, communication assistance program, and image control program | |
KR102532908B1 (en) | Device, method and program for providing psychological counseling using deep learning and virtual reality | |
JP6819672B2 (en) | Information processing equipment, information processing methods, and programs | |
KR102415719B1 (en) | Metaverse server for displaying avatar status information for virtual counseling envuronment | |
JP2011039860A (en) | Conversation system, conversation method, and computer program using virtual space | |
CN110188364B (en) | Translation method, device and computer readable storage medium based on intelligent glasses | |
JP2022163463A (en) | communication robot | |
US11763239B1 (en) | Emotional intelligence assistant | |
JP2020136921A (en) | Video call system and computer program | |
JP7286303B2 (en) | Conference support system and conference robot | |
JP7693962B1 (en) | Information processing device and information processing method | |
WO2019227633A1 (en) | Methods and apparatuses for establishing user profile and establishing state information analysis model | |
CN113850899A (en) | Digital human rendering method, system, storage medium and electronic device | |
JP7310907B2 (en) | DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM | |
JP7691585B1 (en) | Information processing device, information processing method, and program | |
JP6496220B2 (en) | Information distribution apparatus and information distribution program | |
CN111464519B (en) | Account registration method and system based on voice interaction | |
JP7375354B2 (en) | User terminal, server, character exchange system, character exchange method, and program | |
JP7734903B2 (en) | Information processing device, control program, control method, and information processing system | |
KR102855682B1 (en) | Motion-based user emotion interaction method and system | |
JP2019111363A (en) | Game program and game device | |
EP4614376A1 (en) | Method and system for selective object rendering in metaverse | |
JP7655322B2 (en) | Information processing device, information processing method, program, and information processing system | |
JP2024131077A (en) | PROGRAM, DATA PROVIDING APPARATUS AND DATA PROVIDING METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20250226 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20250226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250318 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250603 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7693962 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |