[go: up one dir, main page]

JP2019091151A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2019091151A
JP2019091151A JP2017218278A JP2017218278A JP2019091151A JP 2019091151 A JP2019091151 A JP 2019091151A JP 2017218278 A JP2017218278 A JP 2017218278A JP 2017218278 A JP2017218278 A JP 2017218278A JP 2019091151 A JP2019091151 A JP 2019091151A
Authority
JP
Japan
Prior art keywords
display area
user
screen
information
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017218278A
Other languages
Japanese (ja)
Other versions
JP7009940B2 (en
Inventor
直也 宮原
Naoya Miyahara
直也 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017218278A priority Critical patent/JP7009940B2/en
Publication of JP2019091151A publication Critical patent/JP2019091151A/en
Application granted granted Critical
Publication of JP7009940B2 publication Critical patent/JP7009940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve visibility of a screen.SOLUTION: An information processing device comprises: a speech information acquisition unit which acquires speech information that a user inputs; a conversion unit which converts the speech information into text data; an answering unit which determines answering based upon the test data and executes the answering; and a control unit which controls display processing according to contents of the answering so that in a screen consisting of a first display region for displaying an interaction partner image showing an interaction partner of the user and interaction contents that the interaction partner outputs in response to the answering, a second display region for displaying the text data, and a third display region for displaying services provided by the answering, the third display region is arranged between the first display region and the second display region, and the interaction contents are displayed in text representation more on the third display area side than the interaction partner image.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、様々な場所に顧客操作型端末が設置されており、ユーザは顧客操作型端末を自身で操作することで多様なサービスを受けることができる。例えば、映画館に設置された顧客操作型端末は、ユーザが選択した映画の座席情報を表示し、決済処理を実行し、チケットを発券する。しかし、ユーザ自身が顧客操作型端末を操作する場合、顧客操作型端末が提供可能なサービスの多様化により、ユーザは、目的とするサービスの検索に時間を要してしまうという問題がある。検索に時間を要した上、目的とするサービスを見つけることができなかった場合、ユーザは、途中で操作をあきらめてしまうこともある。また、ユーザ自身が検索する手段の代替手段として、画面共有ソフトを用いてオペレータが遠隔操作を行う手段があるが、無人運用をできないという問題があった。そこで、対話形式により顧客操作型端末を操作可能な方法が開発されている。   In recent years, customer operation type terminals have been installed in various places, and a user can receive various services by operating the customer operation type terminals by himself. For example, a customer-operated terminal installed in a movie theater displays seating information of a movie selected by the user, executes settlement processing, and issues a ticket. However, when the user operates the customer operation type terminal, there is a problem that the user takes time to search for a target service due to diversification of services that can be provided by the customer operation type terminal. If it takes time to search and it is not possible to find the desired service, the user may give up on the way. Further, as an alternative means for the user to search, there is a means for the operator to perform remote control using screen sharing software, but there is a problem that the unmanned operation can not be performed. Therefore, a method capable of operating the customer operation type terminal in an interactive manner has been developed.

対話形式により顧客操作型端末を操作可能な方法として、例えば下記の特許文献1には、音声認識機能によりユーザの発話内容を認識し、ユーザの発話内容から取得した情報に基づき、所定の処理を実行する方法が開示されている。特許文献1の方法により、ユーザは、発話により目的を顧客操作型端末に伝えることで、顧客操作型端末を直接操作することなく、目的とするサービスを受けることが可能である。   As a method capable of operating a customer operation type terminal in an interactive manner, for example, Patent Document 1 below recognizes a user's uttered content by a voice recognition function, and performs predetermined processing based on information acquired from the user's uttered content. A method for performing is disclosed. According to the method of Patent Document 1, the user can receive the intended service without directly operating the customer operation type terminal by conveying the purpose to the customer operation type terminal by speech.

特開2015−076038号公報JP, 2015-076038, A

しかし、特許文献1の発明では、画面の視認性が悪いという問題があった。例えば、特許文献1に記載の画面レイアウトでは、アバター画像の右にアバターの発話内容をテキストで表示する吹き出しがあり、ユーザに提供するサービスを表示する領域がアバターの下に表示されている。上述のレイアウトでは、ユーザがアバターから提供された情報を視認する際に、ユーザの視線が吹き出しとサービス内容の間を移動する量が大きくなってしまう。   However, the invention of Patent Document 1 has a problem that the visibility of the screen is poor. For example, in the screen layout described in Patent Document 1, there is a speech balloon on the right of the avatar image that displays the speech content of the avatar as text, and an area for displaying a service provided to the user is displayed below the avatar. In the above-described layout, when the user views the information provided by the avatar, the amount of movement of the user's line of sight between the balloon and the service content increases.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画面の視認性を向上することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved information processing apparatus and information processing method capable of improving the visibility of a screen. And providing a program.

上記課題を解決するために、本発明のある観点によれば、ユーザが入力した音声情報を取得する音声情報取得部と、前記音声情報をテキストデータに変換する変換部と、前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、を備える、情報処理装置が提供される。   To solve the above problems, according to one aspect of the present invention, a voice information acquisition unit for obtaining voice information input by a user, a conversion unit for converting the voice information into text data, and the text data A response unit for determining a response and executing the response, an interactive partner image showing the interactive partner of the user, and a first display area for displaying interactive contents output by the interactive partner according to the response; And a second display area for displaying data and a third display area for displaying a service provided by the response, wherein the third display area is the first display area and the second display area. Control unit for controlling the display processing according to the contents of the response so as to be disposed between the display areas of the display unit and to arrange the interactive contents in the text representation on the third display area side with respect to the interactive partner image It comprises a information processing apparatus is provided.

前記制御部は、前記第1の表示領域を前記第3の表示領域の上に配置し、前記第2の表示領域を前記第3の表示領域の下に配置してもよい。   The control unit may arrange the first display area above the third display area, and arrange the second display area below the third display area.

前記情報処理装置は、前記ユーザを検知することが可能な検知装置と、前記ユーザの画面操作により入力された画面操作情報を取得する画面操作情報取得部と、をさらに備え、前記制御部は、前記検知装置が前記ユーザを検知した際に、前記音声情報、及び前記画面操作情報を受け付け可能な状態で待機してもよい。   The information processing apparatus further includes a detection device capable of detecting the user, and a screen operation information acquisition unit that acquires screen operation information input by a screen operation of the user, and the control unit When the detection device detects the user, it may stand by in a state in which the voice information and the screen operation information can be received.

前記応答部は、前記画面操作情報取得部が前記画面操作情報を取得した場合、前記画面操作情報に基づき、前記応答を決定し、前記応答を実行してもよい。   When the screen operation information acquisition unit acquires the screen operation information, the response unit may determine the response based on the screen operation information and execute the response.

前記制御部は、前記第3の表示領域に、音声入力による選択、及び画面のタッチによる選択が可能なサービスを表示してもよい。   The control unit may display, in the third display area, a service capable of selection by voice input and selection by touch of a screen.

前記制御部は、画面切り替え時に、前記第1の表示領域の大きさが変化する場合、前記対話相手画像の表示領域の大きさを、前記第1の表示領域の大きさに合わせて調整してもよい。   The control unit adjusts the size of the display area of the conversation partner image according to the size of the first display area when the size of the first display area changes at the time of screen switching. It is also good.

前記制御部は、前記第3の表示領域に表示する前記サービスがない場合、前記第3の表示領域を非表示にし、前記第2の表示領域より上の表示領域を前記第1の表示領域としてもよい。   When there is no service to be displayed in the third display area, the control unit hides the third display area, and sets a display area above the second display area as the first display area. It is also good.

前記制御部は、前記対話内容、及び前記テキストデータを吹き出しの中に表示してもよい。   The control unit may display the dialogue content and the text data in a balloon.

前記制御部は、前記ユーザを示すユーザ画像を前記第2の表示領域に表示し、前記テキストデータを前記ユーザ画像と前記第3の表示領域の間に表示してもよい。   The control unit may display a user image indicating the user in the second display area, and display the text data between the user image and the third display area.

前記制御部は、前記ユーザとの対話が不要な処理を前記応答部が実行している場合、前記第2の表示領域と前記第3の表示領域を非表示にし、前記第1の表示領域より下の表示領域を第4の表示領域としてもよい。   The control unit hides the second display area and the third display area when the response unit is executing a process that does not require interaction with the user, and the control unit is configured to hide the second display area and the third display area. The lower display area may be used as a fourth display area.

前記情報処理装置は、決済処理を制御する決済処理部と、発券処理を制御する発券処理部と、をさらに備え、前記制御部は、前記決済処理部、または前記発券処理部が処理中である場合、前記第4の表示領域にサービス情報を表示してもよい。   The information processing apparatus further includes a payment processing unit that controls payment processing, and a ticketing processing unit that controls ticketing processing, and the control unit is processing by the payment processing unit or the ticket processing unit. In the case, the service information may be displayed in the fourth display area.

前記制御部は、音声認識機能をオンまたはオフに切り替えが可能であってもよい。   The control unit may be capable of switching the speech recognition function on or off.

前記制御部は、音声認識機能がオンであり、前記第4の表示領域を表示中に前記ユーザが発話を行った場合、前記サービス情報を非表示にし、前記第2の表示領域を表示してもよい。   When the voice recognition function is on and the user speaks while displaying the fourth display area, the control unit hides the service information and displays the second display area. It is also good.

前記サービスは、座席予約サービスであってもよい。   The service may be a seat reservation service.

また、上記課題を解決するために、本発明の別の観点によれば、ユーザが入力した音声情報を取得することと、前記音声情報をテキストデータに変換することと、前記テキストデータに基づき、応答を決定し、前記応答を実行することと、前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御することと、を含む、プロセッサにより実行される、情報処理方法が提供される。   In order to solve the above problems, according to another aspect of the present invention, acquiring voice information inputted by a user, converting the voice information into text data, and based on the text data, Determining a response, executing the response, an interactive partner image showing the interactive partner of the user, and a first display area for displaying interactive contents output by the interactive partner according to the response; and the text data The third display area is a screen including the second display area to be displayed and the third display area to display the service provided by the response, wherein the third display area is the first display area and the second display. Controlling the display processing according to the contents of the response so as to be arranged between the areas and to arrange the dialogue contents in the text representation on the third display area side with respect to the dialogue partner image Executed by the processor, information processing method is provided.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、ユーザが入力した音声情報を取得する音声情報取得部と、前記音声情報をテキストデータに変換する変換部と、前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、として機能させるための、プログラムが提供される。   In order to solve the above problems, according to another aspect of the present invention, a computer, an audio information acquisition unit for acquiring audio information input by a user, a conversion unit for converting the audio information into text data, and A response unit that determines a response based on the text data and executes the response, a conversation partner image indicating the conversation partner of the user, and a first content of the dialog content displayed by the conversation partner according to the response The third display area is a screen comprising a display area, a second display area for displaying the text data, and a third display area for displaying a service provided by the response, wherein the third display area is the first display area. A table according to the contents of the response is disposed between the display area and the second display area, and the dialogue contents are arranged in the text representation on the third display area side with respect to the dialogue partner image. To function as a control section for controlling the process, the program is provided.

以上説明したように本発明によれば、画面の視認性を向上することを実現することが可能である。   As described above, according to the present invention, it is possible to realize improvement in the visibility of the screen.

本発明の実施形態に係る情報処理システムの概要を示す説明図である。It is an explanatory view showing the outline of the information processing system concerning the embodiment of the present invention. 同実施形態に係る顧客操作型端末の外観構成例を示す説明図である。It is an explanatory view showing an example of appearance appearance of a customer operation type terminal concerning the embodiment. 同実施形態に係る顧客操作型端末の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a customer operation type terminal concerning the embodiment. 同実施形態に係るWebAPサーバの機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a WebAP server concerning the embodiment. 同実施形態に係る画面のレイアウトの構成例を示す説明図である。It is an explanatory view showing an example of composition of a layout of a screen concerning the embodiment. 同実施形態に係る対話相手画像の表示例を示す説明図である。It is an explanatory view showing the example of a display of the conversation partner picture concerning the embodiment. 同実施形態に係る初期画面の表示例を示す説明図である。It is an explanatory view showing the example of a display of the initial screen concerning the embodiment. 同実施形態に係る対話による画面変化の表示例を示す説明図である。It is an explanatory view showing the example of a display of the screen change by the dialogue concerning the embodiment. 同実施形態に係るサービスの表示例を示す説明図である。It is an explanatory view showing the example of a display of the service concerning the embodiment. 同実施形態に係るサービスの詳細の表示例を示す説明図である。It is an explanatory view showing the example of a display of the details of the service concerning the embodiment. 同実施形態に係る決済処理時の画面の表示例を示す説明図である。It is an explanatory view showing an example of a display of a screen at the time of settlement processing concerning the embodiment. 同実施形態に係る発券処理中の画面の表示例を示す説明図である。It is an explanatory view showing an example of a display of a screen under ticketing processing concerning the embodiment. 同実施形態に係る発券後の画面の表示例を示す説明図である。It is an explanatory view showing an example of a display of a screen after ticket issue concerning the embodiment. 同実施形態に係るユーザ検知時の顧客操作型端末の動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the customer operation type terminal at the time of the user detection which concerns on the embodiment. 同実施形態に係るユーザ検知時のWebAPサーバの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the WebAP server at the time of the user detection which concerns on the embodiment. 同実施形態に係る音声情報取得時の顧客操作型端末の動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the customer operation type terminal at the time of the audio | voice information acquisition which concerns on the embodiment. 同実施形態に係る音声情報取得時のWebAPサーバの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the WebAP server at the time of the audio | voice information acquisition which concerns on the embodiment. 同実施形態に係る画面操作情報取得時の顧客操作型端末の動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the customer operation type terminal at the time of screen operation information acquisition which concerns on the embodiment. 同実施形態に係る画面操作情報取得時のWebAPサーバの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the WebAP server at the time of screen operation information acquisition which concerns on the embodiment. 本発明の一実施形態に係る変形例における初期画面の表示例を示す説明図である。It is an explanatory view showing an example of a display of an initial screen in a modification concerning one embodiment of the present invention. 本発明の一実施形態に係る変形例における対話による画面変化を示す説明図である。It is an explanatory view showing screen change by dialogue in a modification concerning one embodiment of the present invention. 本発明の一実施形態に係る変形例における第3の表示領域の表示例を示す説明図である。It is an explanatory view showing an example of a display of the 3rd display field in a modification concerning one embodiment of the present invention. 本発明の一実施形態に係る変形例における画面操作が行われた時の第3の表示領域の表示例を示す説明図である。It is an explanatory view showing an example of a display of the 3rd display field when screen operation in a modification concerning one embodiment of the present invention is performed. 本発明の一実施形態に係る変形例における複数のユーザ検知時の第2の表示領域の表示例を示す説明図である。It is an explanatory view showing an example of a display of the 2nd display field at the time of a plurality of user detection in a modification concerning one embodiment of the present invention. 本発明の一実施形態に係る変形例における横画面での操作表示部の表示例を示す説明図である。It is an explanatory view showing the example of a display of the operation display part in the horizontal screen in the modification concerning one embodiment of the present invention. 同実施形態に係る顧客操作型端末のハードウェア構成例を示したブロック図である。It is a block diagram showing an example of hardware constitutions of a customer operation type terminal concerning the embodiment.

以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration will be assigned the same reference numerals and redundant description will be omitted.

また、本明細書および図面において、実質的に同一の機能構成または論理的意義を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成または論理的意義を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。   Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration or logical meaning may be distinguished by appending different alphabets after the same symbol. However, when it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration or logical meaning, each of the plurality of components is only given the same reference numeral.

<1.情報処理システムの概要>
本発明の実施形態は、ユーザに多様なサービスを提供するための情報処理システムに関する。以下では、チケットの発券サービスを例に、本発明の実施形態に係る情報処理システムについて説明する。なお、サービスはチケットの発券サービスに限定されず、任意のサービスが提供されてもよい。例えば、座席予約サービスが提供されてもよい。まず、図1を参照しながら、本発明の実施形態に係る情報処理システムの概要を説明する。
<1. Outline of information processing system>
Embodiments of the present invention relate to an information processing system for providing various services to users. Hereinafter, an information processing system according to an embodiment of the present invention will be described by taking a ticket issuing service of a ticket as an example. Note that the service is not limited to the ticket issue service, and any service may be provided. For example, a seat reservation service may be provided. First, an overview of an information processing system according to an embodiment of the present invention will be described with reference to FIG.

図1は、本発明の実施形態に係る情報処理システムの概要を示す説明図である。図1に示すように、顧客操作型端末10は、ネットワーク14を介してWebAP(AP:Application)サーバ30と接続されている。   FIG. 1 is an explanatory view showing an outline of an information processing system according to an embodiment of the present invention. As shown in FIG. 1, the customer operation type terminal 10 is connected to a WebAP (AP: Application) server 30 via a network 14.

(1)顧客操作型端末10
顧客操作型端末10は、ユーザが入力した情報に基づき、チケットを発券するための情報処理装置である。図1に示す顧客操作型端末10は、ユーザが入力した情報に基づく応答を示すことができる。ここで、応答とは、ユーザの発話に対する次の会話内容、ユーザの要求に対して提供するサービス、及び画面に表示するデータ等である。ここで、発話とは、対話内容を音声で出入力すること、対話内容をテキスト表記で出力すること、対話内容を音声とテキスト表記で出入力することである。例えば、顧客操作型端末10は、ネットワーク14を介してユーザの入力情報をWebAPサーバ30へ送信し、WebAPサーバ30が決定した応答の内容をWebAPサーバ30から受信する。顧客操作型端末10は、WebAPサーバ30から受信した応答の内容に基づき、チケットの検索結果を画面に表示し、ユーザが選択したチケットの決済処理、及び発券処理を行う。
(1) Customer operation type terminal 10
The customer operation type terminal 10 is an information processing apparatus for issuing a ticket based on the information input by the user. The customer operation type terminal 10 shown in FIG. 1 can show a response based on the information input by the user. Here, the response is the next conversation content for the user's speech, the service provided for the user's request, data displayed on the screen, and the like. Here, uttering means inputting / outputting dialogue contents as speech, outputting dialogue contents in text notation, and inputting / outputting dialogue contents in speech and text notation. For example, the customer operation type terminal 10 transmits the input information of the user to the WebAP server 30 via the network 14, and receives the content of the response determined by the WebAP server 30 from the WebAP server 30. The customer operation type terminal 10 displays the search result of the ticket on the screen based on the contents of the response received from the Web AP server 30, and performs the settlement process and the ticket issue process of the ticket selected by the user.

また、顧客操作型端末10は、音声認識機能を備えており、ユーザの音声を認識することが可能であるため、ユーザは、発話による情報の入力が可能である。また、顧客操作型端末10は、ユーザの発話に対する次の会話文を音声で再生することができる。よって、ユーザは、顧客操作型端末10と対話により、顧客操作型端末10を操作することが可能である。なお、顧客操作型端末10の操作手段は、音声入力による操作に限定されない。例えば、ユーザは、画面操作による入力も可能である。   Further, since the customer operation type terminal 10 has a voice recognition function and can recognize the user's voice, the user can input information by speech. Further, the customer operation type terminal 10 can reproduce the next conversational sentence for the user's speech by voice. Therefore, the user can operate the customer operation type terminal 10 by interacting with the customer operation type terminal 10. In addition, the operation means of the customer operation type terminal 10 is not limited to operation by voice input. For example, the user can also input by screen operation.

(2)WebAPサーバ30
WebAPサーバ30は、ユーザの入力情報に対する応答を決定する機能を有する。WebAPサーバ30は、人工知能(AI:Artificial Intelligence)を備えており、AIがユーザの入力情報を解析することで応答を決定する。例えば、WebAPサーバ30は、ネットワーク14を介して顧客操作型端末10からユーザの入力情報を受信し、AIがユーザの入力情報に基づき決定した応答の内容を顧客操作型端末10へ送信する。
(2) WebAP server 30
The WebAP server 30 has a function of determining a response to user's input information. The WebAP server 30 includes artificial intelligence (AI: Artificial Intelligence), and the AI analyzes a user's input information to determine a response. For example, the WebAP server 30 receives the input information of the user from the customer operation type terminal 10 via the network 14, and transmits the content of the response determined by the AI based on the input information of the user to the customer operation type terminal 10.

以上、図1を参照しながら、本発明の実施形態に係る情報処理システムの概要を説明した。続いて、本発明の実施形態に係る顧客操作型端末10の構成例について説明する。   The outline of the information processing system according to the embodiment of the present invention has been described above with reference to FIG. Subsequently, a configuration example of the customer operation type terminal 10 according to the embodiment of the present invention will be described.

<2.顧客操作型端末の構成例>
図2は、本発明の実施形態に係る顧客操作型端末10の外観構成例を示す説明図である。図3は、本発明の実施形態に係る顧客操作型端末10の機能構成例を示すブロック図である。なお、本発明の実施形態では、図2に示す顧客操作型端末10を利用する形態を例に説明するが、本発明に利用する端末は顧客操作型端末10に限定されず、任意の端末が利用されてもよい。例えば、スマートフォン、タブレット端末等の携帯型端末、タッチ式サイネージ用のディスプレイ等の情報表示装置にアプリケーションをインストールすることで本発明を実施してもよい。以下、図2、及び図3を参照しながら、本発明の実施形態に係る顧客操作型端末10の構成例について説明する。
<2. Example of configuration of customer operation type terminal>
FIG. 2 is an explanatory view showing an example of the appearance configuration of the customer operation type terminal 10 according to the embodiment of the present invention. FIG. 3 is a block diagram showing an example of the functional configuration of the customer operation type terminal 10 according to the embodiment of the present invention. In the embodiment of the present invention, although the form using the customer operation type terminal 10 shown in FIG. 2 is described as an example, the terminal used in the present invention is not limited to the customer operation type terminal 10, and any terminal may be used. It may be used. For example, the present invention may be implemented by installing an application on an information display device such as a smartphone, a portable terminal such as a tablet terminal, and a display for touch signage. Hereinafter, a configuration example of the customer operation type terminal 10 according to the embodiment of the present invention will be described with reference to FIGS. 2 and 3.

図2、及び図3に示したように、本発明の実施形態に係る顧客操作型端末10は、カメラ120、スピーカ124、マイク128、通信部132、操作表示部136、決済媒体部140、チケット発券部144、制御部150を備える。   As shown in FIGS. 2 and 3, the customer operation type terminal 10 according to the embodiment of the present invention includes the camera 120, the speaker 124, the microphone 128, the communication unit 132, the operation display unit 136, the payment medium unit 140, and the ticket. A ticket issuing unit 144 and a control unit 150 are provided.

(1)カメラ120
カメラ120は、人物を撮影する機能を有する検知装置の1つである。例えば、カメラ120は、顧客操作型端末10の前にいるユーザを撮影すると、ユーザを撮影した画像をカメラAP154へ送信する。なお、本発明の実施形態では、図2に示すように、操作表示部136の上に1台のカメラ120が設置されているが、カメラ120の台数、及び位置は特に限定されず、顧客操作型端末10は任意の台数のカメラ120を任意の位置に備えてもよい。
(1) Camera 120
The camera 120 is one of detection devices having a function of photographing a person. For example, when shooting a user in front of the customer operation type terminal 10, the camera 120 transmits an image obtained by shooting the user to the camera AP 154. In the embodiment of the present invention, as shown in FIG. 2, one camera 120 is installed on the operation display unit 136, but the number and position of the cameras 120 are not particularly limited, and the customer operation The mold terminal 10 may have any number of cameras 120 at any position.

(2)スピーカ124
スピーカ124は、音声を再生する機能を有する。例えば、スピーカ124は、画面AP158が取得した音声ファイルを再生することで、ユーザの入力に対する応答を、発話としてユーザへ伝える。なお、本発明の実施形態では、図2に示すように、カメラ120の左右に1台ずつスピーカ124が設置されているが、スピーカ124の台数、及び位置は特に限定されず、顧客操作型端末10は任意の台数のスピーカ124を任意の位置に備えてもよい。なお、顧客操作型端末10は、Bluetooth(登録商標)といった近距離無線通信機能を搭載してもよい。顧客操作型端末10は、近距離無線通信機能を用いて、同無線通信機能を搭載したワイヤレスイヤホン等のユーザが所持する無線機器に、スピーカ124が再生する音声を送信してもよい。その際、ユーザは、自身の無線機器と顧客操作型端末10を接続するためのペアリング処理を予め行っておく。上述のように、ユーザが所持する機器が音声の取得、及び再生をすることで、例えば、ユーザは、騒音のある環境下においても応答に関する音声を認識することができる。
(2) Speaker 124
The speaker 124 has a function of reproducing sound. For example, the speaker 124 transmits a response to the user's input as a speech to the user by reproducing the audio file acquired by the screen AP 158. In the embodiment of the present invention, as shown in FIG. 2, one speaker 124 is installed on the left and right of the camera 120, but the number and position of the speakers 124 are not particularly limited. 10 may have any number of speakers 124 at any position. The customer operation type terminal 10 may be equipped with a near field communication function such as Bluetooth (registered trademark). The customer operation type terminal 10 may transmit the sound reproduced by the speaker 124 to a wireless device possessed by the user, such as a wireless earphone equipped with the wireless communication function, using the short distance wireless communication function. At this time, the user performs in advance a pairing process for connecting the customer-operated terminal 10 with his / her wireless device. As described above, when the device possessed by the user acquires and reproduces the voice, for example, the user can recognize the voice related to the response even in a noisy environment.

(3)マイク128
マイク128は、音声情報を取得する機能を有する検知装置の1つである。例えば、マイク128は、ユーザが発話した音声情報を取得し、取得した音声情報を雑音除去モジュール166へ出力する。また、顧客操作型端末10は、複数のマイク128を備えることで音声の到来方向を認識することが可能であり、音声の方向に基づき、発話しているユーザの人数を把握することが可能である。なお、本発明の実施形態では、図2に示すように、操作表示部136の左右に1台ずつマイク128が設置されているが、マイク128の台数、及び位置は特に限定されず、顧客操作型端末10は任意の台数のマイク128を任意の位置に備えてもよい。
(3) Microphone 128
The microphone 128 is one of detection devices having a function of acquiring audio information. For example, the microphone 128 acquires voice information uttered by the user, and outputs the acquired voice information to the noise removal module 166. In addition, the customer operation type terminal 10 can recognize the arrival direction of the voice by providing the plurality of microphones 128, and can grasp the number of users speaking based on the direction of the voice. is there. In the embodiment of the present invention, as shown in FIG. 2, one microphone 128 is installed on the left and right of the operation display unit 136, but the number and position of the microphones 128 are not particularly limited. The mold terminal 10 may have any number of microphones 128 at any position.

(4)通信部132
通信部132は、ネットワーク14を介して、WebAPサーバ30と各種情報を通信する機能を有する。例えば、通信部132は、ネットワーク14を介して、顧客操作型端末10が操作表示部136を介して取得したユーザの入力情報をWebAPサーバ30へ送信する。また、通信部132は、ネットワーク14を介して、WebAPサーバ30が決定した応答の内容をWebAPサーバ30から受信する。
(4) Communication unit 132
The communication unit 132 has a function of communicating various information with the WebAP server 30 via the network 14. For example, the communication unit 132 transmits the input information of the user acquired by the customer operation type terminal 10 via the operation display unit 136 to the Web AP server 30 via the network 14. The communication unit 132 also receives the contents of the response determined by the WebAP server 30 from the WebAP server 30 via the network 14.

(5)操作表示部136
操作表示部136は、ユーザへの応答、及びユーザが操作入力可能な画面を表示する表示部としての機能を有する。また、操作表示部136は、ユーザが操作入力を行うための操作部としての機能を有する。例えば、表示部としての機能は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置により実現される。また、操作部としての機能は、例えばタッチパネルにより実現される。なお、図2において、顧客操作型端末10は、表示部および操作部の機能を一体化した構成としているが、表示部および操作部の機能を分離した構成としてもよい。
(5) Operation display unit 136
The operation display unit 136 has a function as a display unit that displays a response to the user and a screen on which the user can input an operation. Further, the operation display unit 136 has a function as an operation unit for the user to perform an operation input. For example, the function as the display unit is realized by a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, or an OLED (Organic Light Emitting Diode) device. Moreover, the function as an operation part is implement | achieved by the touch panel, for example. In FIG. 2, the customer operation type terminal 10 has a configuration in which the functions of the display unit and the operation unit are integrated, but the functions of the display unit and the operation unit may be separated.

(6)決済媒体部140
決済媒体部140(決済処理部)は、チケット発券のための決済に利用される取引媒体が授受される開口部としての機能を有する。取引媒体としては、クレジットカードまたは現金が挙げられる。また、決済媒体部140は、取引媒体に応じた決済処理を行う機能を有する。例えば、取引媒体がクレジットカードである場合、決済媒体部140は、挿入されたクレジットカードに記録された情報を読み取る。また、取引媒体が現金である場合、決済媒体部140は、現金の搬送路、現金カセットおよび現金の正当性を鑑別する鑑別部などを有する。入金時に決済媒体部140に投入された現金は、搬送路を介して鑑別部へ搬送され、鑑別部により正常な鑑別結果が得られた場合、金種に応じた現金カセットに搬送される。また、出金時には、現金カセットから現金が繰り出され、鑑別部が繰り出された紙幣を鑑別し、正常な鑑別結果が得られた場合に決済媒体部140に現金が搬送される。なお、電子マネーおよび仮想通貨を取引媒体として利用可能であり、この場合、決済媒体部140は顧客操作型端末10に設けられなくてもよい。
(6) Settlement medium unit 140
The settlement medium unit 140 (settlement processing unit) has a function as an opening through which a transaction medium used for settlement for ticket issuance is delivered. Trade media include credit cards or cash. Further, the settlement medium unit 140 has a function of performing settlement processing according to the transaction medium. For example, if the transaction medium is a credit card, the payment medium unit 140 reads the information recorded on the inserted credit card. In addition, when the transaction medium is cash, the settlement medium unit 140 has a cash transport path, a cash cassette, a discrimination unit for discriminating the legitimacy of cash, and the like. The cash inserted into the payment medium unit 140 at the time of deposit is transported to the discrimination unit via the transport path, and when a normal discrimination result is obtained by the discrimination unit, the cash is transported to the cash cassette according to the denomination. In addition, at the time of dispensing, cash is fed out from the cash cassette, the discrimination unit discriminates the fed banknote, and the cash is transported to the settlement medium unit 140 when a normal discrimination result is obtained. Note that electronic money and virtual currency can be used as a transaction medium, and in this case, the payment medium unit 140 may not be provided in the customer operation type terminal 10.

(7)チケット発券部144
チケット発券部144(発券処理部)は、チケットを発券する機能をする。例えば、チケット発券部144は、ユーザが操作表示部136に表示されたチケットの検索結果から選択したチケットの情報を紙状媒体に印刷し、チケットの情報が印刷された紙状媒体であるチケットを排出する。なお、顧客操作型端末10は、チケット発券部144の他に、図示しないプリンタを備えてもよい。例えば、決済媒体部140で決済が完了した際に、当該プリンタは、決済に関する内容を紙上媒体に印刷して、レシートとして紙状媒体を排出してもよい。また、当該プリンタは、ユーザが操作入力した内容を紙上媒体に印刷して、紙上媒体を排出してもよい。例えば、提供されるサービスが座席予約サービスの場合、当該プリンタは、ユーザが操作入力した座席予約内容を紙上媒体に印刷して、紙状媒体を排出してもよい。なお、当該プリンタによる印刷処理は、制御部150の制御情報により、レシートに決済内容を印刷する処理と予約内容を印刷する処理を切り替えられてもよい。また、顧客操作型端末10は、レシート発行用のプリンタと予約内容印刷用のプリンタを分けて備えてもよい。
(7) Ticket issue unit 144
The ticket issue unit 144 (ticket issue processing unit) has a function of issuing a ticket. For example, the ticket issuing unit 144 prints on a sheet of paper the information of the ticket selected from the search result of the ticket displayed on the operation display unit 136 by the user, and the ticket is a sheet of paper on which the information of the ticket is printed. Discharge. The customer operation type terminal 10 may include a printer (not shown) in addition to the ticket issuance unit 144. For example, when the settlement is completed in the settlement medium unit 140, the printer may print the contents relating to the settlement on a paper medium and discharge the paper medium as a receipt. In addition, the printer may discharge the content on paper by printing the content input by the user on the paper. For example, if the service to be provided is a seat reservation service, the printer may print out the seat reservation content input by the user on paper and eject the paper-like medium. The printing process by the printer may be switched between the process of printing the payment contents on the receipt and the process of printing the reservation contents by the control information of the control unit 150. Further, the customer operation type terminal 10 may be separately provided with a printer for receipt issuance and a printer for reservation content printing.

(8)制御部150
制御部150は、顧客操作型端末10の動作全般を制御する機能を有する。例えば、制御部150は、カメラ120、スピーカ124、マイク128、通信部132、操作表示部136、決済媒体部140、チケット発券部144の制御を行う機能を有する。特に、本発明の実施形態に係る制御部150は、操作表示部136に表示される画面の表示処理を制御する機能を有する。なお、画面の表示処理の詳細については、<4.画面の表示例>にて説明する。
(8) Control unit 150
The control unit 150 has a function of controlling the overall operation of the customer operation type terminal 10. For example, the control unit 150 has a function of controlling the camera 120, the speaker 124, the microphone 128, the communication unit 132, the operation display unit 136, the settlement medium unit 140, and the ticket issuing unit 144. In particular, the control unit 150 according to the embodiment of the present invention has a function of controlling display processing of a screen displayed on the operation display unit 136. In addition, about the detail of the display process of a screen, <4. Display Example of Screen> will be described.

また、制御部150は、検知装置がユーザを検知すると、ユーザの音声情報、及びユーザの画面操作により入力された画面操作情報の両方を受け付け可能な状態で、顧客操作型端末10を待機させる機能を有する。顧客操作型端末10が音声情報、及び画面操作情報の両方を受け付け可能な状態であることにより、ユーザは、音声入力による操作、及び画面操作のどちらでも顧客操作型端末10を操作することが可能である。なお、本発明の実施形態に係る顧客操作型端末10は、初期画面表示後の最初の操作では音声入力による操作のみを受け付け可能な状態であるが、受け付け可能な操作は音声入力による操作に限定されず、任意の入力による操作のみを受け付け可能な状態であってもよい。また、初期画面表示後の最初の操作にて、顧客操作型端末10は、音声入力による操作以外に、別の手段での入力による操作を含む、複数の手段による操作を受け付け可能な状態であってもよい。   Further, the control unit 150 has a function of causing the customer operation type terminal 10 to stand by in a state in which both the voice information of the user and the screen operation information input by the user's screen operation can be received when the detection device detects the user. Have. Since the customer operation type terminal 10 can receive both the voice information and the screen operation information, the user can operate the customer operation type terminal 10 by either the operation by the voice input or the screen operation. It is. Although the customer operation type terminal 10 according to the embodiment of the present invention can receive only the operation by voice input at the first operation after the initial screen display, the acceptable operation is limited to the operation by voice input. It may be in a state where it can accept only an operation by an arbitrary input. In addition, at the first operation after the initial screen display, customer operation type terminal 10 is in a state capable of accepting operations by a plurality of means, including operations by input by another means, in addition to operations by voice input. May be

上述の機能を実現するために、本発明の実施形態に係る制御部150は、カメラAP154、画面AP158、WebSocketサーバ162、雑音除去モジュール166、音声認識AP170を備える。   In order to realize the functions described above, the control unit 150 according to the embodiment of the present invention includes a camera AP 154, a screen AP 158, a WebSocket server 162, a noise removal module 166, and a voice recognition AP 170.

(カメラAP154)
カメラAP154は、人物検知に関する処理を制御する機能を有する。例えば、カメラAP154は、カメラ120がユーザを撮影した画像をカメラ120から取得すると、取得した画像を解析し、ユーザを検知したか否かを判定する。ユーザを検知したと判定した場合、カメラAP154は、ユーザを検知した旨を画面AP158、及び音声認識AP170へ通知する。この時、カメラAP154は、検知したユーザの人数に関する情報も合わせて通知する。なお、カメラAP154は、撮影した画像から人物の特徴点を検出し、検出した特徴点に基づき画像内に含まれるユーザの人数を取得する。特徴点を検出する際に、カメラAP154は、図示しない記憶媒体にあらかじめ保存された人物モデルに含まれる特徴点を参照し、特徴点を検出する。ここで、人物モデルに含まれる特徴点とは、人物に共通して存在する特徴点である。また、制御部150は、カメラAP154が検知したユーザの人数に関する情報と、マイク128が取得する音声情報から把握可能な発話しているユーザの人数に基づき、顧客操作型端末10を使用しているユーザの人数を決定してもよい。例えば、カメラAP154で検知した人数が2人、マイク128で検知した人数が2人の場合、制御部150は、顧客操作型端末10を使用しているユーザの人数を2人と決定する。一方で、カメラAP154で検知した人数とマイク128で検知した人数が異なる場合、制御部150は、発話したユーザの人数に重みをつけてユーザの人数を決定してよい。例えば、カメラAP154で検知した人数が3人、マイク128で検知した人数が2人の場合、制御部150は、顧客操作型端末10を使用しているユーザの人数を2人と決定する。また、ユーザが無線機器と顧客操作型端末10を近距離無線通信機能によりペアリングしている場合、制御部150は、ペアリングされている無線機器の台数をユーザの人数としもよい。
(Camera AP154)
The camera AP 154 has a function of controlling processing relating to human detection. For example, when the camera AP 154 acquires an image of the user taken by the camera 120 from the camera 120, the camera AP 154 analyzes the acquired image and determines whether the user is detected. If it is determined that the user is detected, the camera AP 154 notifies the screen AP 158 and the voice recognition AP 170 that the user has been detected. At this time, the camera AP 154 also notifies information on the number of detected users. The camera AP 154 detects feature points of a person from the captured image, and acquires the number of users included in the image based on the detected feature points. When detecting the feature points, the camera AP 154 detects the feature points by referring to the feature points included in the human model stored in advance in a storage medium (not shown). Here, the feature points included in the person model are feature points that commonly exist in the person. In addition, the control unit 150 uses the customer operation type terminal 10 based on the information on the number of users detected by the camera AP 154 and the number of uttering users that can be grasped from the voice information acquired by the microphone 128 The number of users may be determined. For example, when the number of people detected by the camera AP 154 is two and the number of people detected by the microphone 128 is two, the control unit 150 determines that the number of users using the customer operation type terminal 10 is two. On the other hand, when the number of people detected by the camera AP 154 and the number of people detected by the microphone 128 are different, the control unit 150 may weight the number of uttered users to determine the number of users. For example, when the number of people detected by the camera AP 154 is three and the number of people detected by the microphone 128 is two, the control unit 150 determines that the number of users using the customer operation type terminal 10 is two. Further, when the user has paired the wireless device with the customer operation type terminal 10 by the short distance wireless communication function, the control unit 150 may set the number of paired wireless devices as the number of users.

(画面AP158)
画面AP158は、画面に表示する情報を取得し、取得した情報を操作表示部136に表示させる機能を有する。例えば、画面AP158は、カメラ120がユーザを検知すると、初期画面として表示する画面のWebページURLをWebAPサーバ30の業務WebAPサーバ304から取得し、操作表示部136に初期画面を表示する。また、例えば、画面AP158は、音声認識AP170からユーザが入力した音声情報のテキストデータを取得すると、取得したテキストデータを操作表示部136に表示する。また、例えば、画面AP158は、応答の内容を業務WebAPサーバ304から取得すると、応答の内容に含まれる画面データURLが示す画面データ、及びテキストデータを操作表示部136に表示する。
(Screen AP158)
The screen AP 158 has a function of acquiring information to be displayed on the screen and displaying the acquired information on the operation display unit 136. For example, when the camera 120 detects a user, the screen AP 158 acquires a Web page URL of a screen to be displayed as an initial screen from the business Web AP server 304 of the Web AP server 30, and displays the initial screen on the operation display unit 136. Also, for example, when the screen AP 158 acquires text data of voice information input by the user from the voice recognition AP 170, the screen AP 158 displays the acquired text data on the operation display unit 136. Also, for example, when the screen AP 158 acquires the content of the response from the business Web AP server 304, the screen AP 158 displays the screen data indicated by the screen data URL included in the content of the response and text data on the operation display unit 136.

また、画面AP158は、音声認識に関する通知をする機能を有する。例えば、画面AP158は、操作表示部136に初期画面を表示した後、ユーザからの音声受信待ち状態である旨を、WebSocketサーバを介して音声認識AP170へ通知する。また、画面AP158は、音声認識に関する指示を行う機能も有する。例えば、画面AP158は、音声認識機能をONまたはOFFにすることを音声認識AP170に指示する。   Further, the screen AP 158 has a function of notifying of the speech recognition. For example, after displaying the initial screen on the operation display unit 136, the screen AP 158 notifies the voice recognition AP 170 via the WebSocket server that it is in a state of waiting for voice reception from the user. The screen AP 158 also has a function of giving an instruction regarding speech recognition. For example, the screen AP 158 instructs the voice recognition AP 170 to turn on or off the voice recognition function.

(WebSocketサーバ162)
WebSocketサーバ162は、端末内のAP間での情報の授受を仲介するサーバとしての機能を有する。例えば、WebSocketサーバ162は、画面AP158と音声認識AP170の間での情報の授受を仲介する。
(WebSocket server 162)
The WebSocket server 162 has a function as a server that mediates the exchange of information between APs in the terminal. For example, the WebSocket server 162 mediates the exchange of information between the screen AP 158 and the voice recognition AP 170.

(雑音除去モジュール166)
雑音除去モジュール166は、音声情報から雑音を除去する機能を有する。例えば、雑音除去モジュール166は、マイク128より取得したユーザの音声情報から雑音を除去する。雑音除去処理後、雑音除去モジュール166は、音声情報を音声認識AP170へ出力する。
(De-noising module 166)
The noise removal module 166 has a function of removing noise from speech information. For example, the noise removal module 166 removes noise from the user's voice information acquired from the microphone 128. After the noise removal processing, the noise removal module 166 outputs the voice information to the voice recognition AP 170.

(音声認識AP170)
音声認識AP170は、WebAPサーバ30からユーザの音声情報に対応するテキストデータを取得する機能を有する。例えば、音声認識APは、雑音除去モジュール166から音声情報を受信すると、受信した音声情報をWebAPサーバ30の音声認識エンジン部308へ送信する。その後、音声認識AP170は、音声認識エンジン部308が変換したテキストデータを受信すると、WebSocketサーバ162を介して画面AP158へ受信したテキストデータを送信する。
(Voice recognition AP 170)
The voice recognition AP 170 has a function of acquiring text data corresponding to voice information of the user from the Web AP server 30. For example, when the speech recognition AP receives the speech information from the noise removal module 166, the speech recognition AP transmits the received speech information to the speech recognition engine unit 308 of the WebAP server 30. Thereafter, when the speech recognition AP 170 receives the text data converted by the speech recognition engine unit 308, the speech recognition AP 170 transmits the received text data to the screen AP 158 via the WebSocket server 162.

また、音声認識AP170は、音声認識機能のON/OFFを切り替える機能も有する。例えば、音声認識AP170は、画面AP158から音声認識機能をONにする旨の指示を受けた場合、音声認識機能をONにする。また、例えば、音声認識AP170は、画面AP158から音声認識機能をOFFにする旨の指示を受けた場合、音声認識機能をOFFにする。   Further, the voice recognition AP 170 also has a function of switching ON / OFF of the voice recognition function. For example, when the voice recognition AP 170 receives an instruction to turn on the voice recognition function from the screen AP 158, the voice recognition function is turned on. Further, for example, when the voice recognition AP 170 receives an instruction to turn off the voice recognition function from the screen AP 158, the voice recognition function is turned off.

以上、図2、図3を参照しながら、本発明の実施形態に係る顧客操作型端末10の構成例について説明した。続いて、本発明の実施形態に係るWebAPサーバ30の構成例について説明する。   The configuration example of the customer operation type terminal 10 according to the embodiment of the present invention has been described above with reference to FIGS. 2 and 3. Subsequently, a configuration example of the Web AP server 30 according to the embodiment of the present invention will be described.

<3.WebAPサーバ30の構成例>
図4は、本発明の実施形態に係るWebAPサーバ30の機能構成例を示すブロック図である。図4に示したように、本発明の実施形態に係るWebAPサーバ30は、通信部302、業務WebAPサーバ304、音声認識エンジン部308、AI対話エンジン部312、対話データ記憶部316、発話音声エンジン部320を備える。
<3. Configuration Example of Web AP Server 30>
FIG. 4 is a block diagram showing an example of a functional configuration of the WebAP server 30 according to the embodiment of the present invention. As shown in FIG. 4, the WebAP server 30 according to the embodiment of the present invention includes a communication unit 302, a business WebAP server 304, a speech recognition engine unit 308, an AI dialogue engine unit 312, a dialogue data storage unit 316, and a speech speech engine. A unit 320 is provided.

(1)通信部302
通信部302は、ネットワーク14を介して、顧客操作型端末10と各種情報を通信する機能を有する。例えば、通信部302は、ネットワーク14を介して、ユーザの入力情報を顧客操作型端末10から受信する。また、通信部302は、ネットワーク14を介して、WebAPサーバ30が決定した応答の内容を顧客操作型端末10へ送信する。
(1) Communication unit 302
The communication unit 302 has a function of communicating various information with the customer operation type terminal 10 via the network 14. For example, the communication unit 302 receives user input information from the customer operation type terminal 10 via the network 14. Further, the communication unit 302 transmits the content of the response determined by the Web AP server 30 to the customer operation type terminal 10 via the network 14.

(2)業務WebAPサーバ304
業務WebAPサーバ304は、顧客操作型端末10から要求を受信すると、要求に対する応答を返す機能を有する。例えば、業務WebAPサーバ304は、顧客操作型端末10の画面AP158からWebページURLの要求を受信した場合、要求に対応するWebページURLを画面AP158へ送信する。
(2) Business Web AP server 304
When the business Web AP server 304 receives a request from the customer operation type terminal 10, it has a function of returning a response to the request. For example, upon receiving a request for a Web page URL from the screen AP 158 of the customer operation type terminal 10, the business Web AP server 304 transmits the Web page URL corresponding to the request to the screen AP 158.

また業務WebAPサーバ304は、顧客操作型端末10からの要求を受け、WebAPサーバ30のAI対話エンジン部312、及び発話音声エンジン部320から要求に対する応答を取得し、顧客操作型端末10へ返す機能も有する。例えば、業務WebAPサーバ304は、画面AP158からテキストデータを受信した場合、テキストデータをAI対話エンジン部312へ送信し、テキストデータに対する次の会話文をAI対話エンジン部312から取得する。さらに、業務WebAPサーバ304は、次の会話文を発話音声エンジン部320へ送信し、次の会話文の音声ファイルを発話音声エンジン部320から取得し、取得した音声ファイルを画面AP158へ送信する。この時、業務WebAPサーバ304は、応答として返せる画面データがある場合、その画面データURLも画面AP158へ送信する。   In addition, the business WebAP server 304 receives a request from the customer operation type terminal 10, acquires a response to the request from the AI dialogue engine unit 312 and the speech voice engine unit 320 of the WebAP server 30, and returns the response to the customer operation type terminal 10. Also have. For example, when the business Web AP server 304 receives text data from the screen AP 158, the business Web AP server 304 transmits the text data to the AI dialogue engine unit 312, and acquires the next conversational sentence for the text data from the AI dialogue engine unit 312. Furthermore, the business Web AP server 304 transmits the next conversational sentence to the speech voice engine unit 320, acquires a speech file of the next conversational sentence from the speech speech engine unit 320, and transmits the acquired speech file to the screen AP158. At this time, if there is screen data that can be returned as a response, the business Web AP server 304 also transmits the screen data URL to the screen AP 158.

(3)音声認識エンジン部308
音声認識エンジン部308は、音声情報をテキストデータに変換する機能を有する。例えば、音声認識エンジン部308は、顧客操作型端末10の音声認識AP170からユーザの音声情報を受信すると、音声情報をテキストデータに変換し、変換したテキストデータを音声認識AP170へ送信する。
(3) Speech recognition engine unit 308
The speech recognition engine unit 308 has a function of converting speech information into text data. For example, when the voice recognition engine unit 308 receives voice information of the user from the voice recognition AP 170 of the customer operation type terminal 10, the voice recognition engine unit 308 converts the voice information into text data and transmits the converted text data to the voice recognition AP 170.

(4)AI対話エンジン部312
AI対話エンジン部312は、ユーザの音声情報のテキストデータを解析し、ユーザの発話に対する応答となる会話文(次の会話文)を取得する機能を有する。例えば、AI対話エンジン部312は、業務WebAPサーバ304からユーザの音声情報のテキストデータを受信すると、テキストデータを解析し、次の会話文を対話データ記憶部316から取得し、取得した会話文を業務WebAPサーバ304へ送信する。
(4) AI dialogue engine unit 312
The AI dialogue engine unit 312 has a function of analyzing text data of voice information of the user and acquiring a conversation sentence (next conversation sentence) as a response to the user's speech. For example, when receiving the text data of the voice information of the user from the business Web AP server 304, the AI dialogue engine unit 312 analyzes the text data, acquires the next conversation sentence from the dialogue data storage unit 316, and acquires the acquired conversation sentence It is transmitted to the business Web AP server 304.

(5)対話データ記憶部316
対話データ記憶部316は、次の会話文を記憶する機能を有する。例えば、対話データ記憶部316は、ユーザとの会話を想定して作成された会話文を、あらかじめ記憶しておく。また、対話データ記憶部316は、顧客操作型端末10がユーザとの会話を繰り返す中で、AIが学習して作成した会話文を記憶してもよい。
(5) Dialogue data storage unit 316
The dialogue data storage unit 316 has a function of storing the next speech sentence. For example, the dialogue data storage unit 316 stores, in advance, a conversational sentence created on the assumption of a conversation with the user. In addition, the dialogue data storage unit 316 may store a conversation sentence created and learned by the AI while the customer operation type terminal 10 repeats the conversation with the user.

(6)発話音声エンジン部320
発話音声エンジン部320は、発話音声を生成する機能を有する。例えば、発話音声エンジン部320は、業務WebAPサーバ304から次の会話文を受信すると、次の会話文を解析し、次の会話文の音声ファイルを生成し、生成した音声ファイルを業務WebAPサーバ304へ送信する。
(6) Utterance voice engine unit 320
The speech sound engine unit 320 has a function of generating a speech sound. For example, upon receiving the next conversational sentence from the business WebAP server 304, the speech voice engine unit 320 analyzes the next conversational sentence, generates a voice file of the next conversational sentence, and generates the generated voice file as the business WebAP server 304. Send to

以上、図4を参照しながら、本発明の実施形態に係るWebAPサーバ30の機能構成例について説明した。続いて、本発明の実施形態に係る画面の表示例について説明する。   Heretofore, a functional configuration example of the WebAP server 30 according to the embodiment of the present invention has been described with reference to FIG. Subsequently, a display example of a screen according to the embodiment of the present invention will be described.

<4.画面の表示例>
以下では、本実施形態に係る操作表示部136に表示される画面の表示例について説明する。まず、画面のレイアウトの構成例について説明する。
<4. Screen display example>
Hereinafter, a display example of the screen displayed on the operation display unit 136 according to the present embodiment will be described. First, an example of the layout of the screen will be described.

[4−1.画面のレイアウトの構成例]
図5は、本発明の実施形態に係る画面のレイアウトの構成例を示す説明図である。図5に示すように、本発明の実施形態に係る操作表示部136に表示される画面のレイアウトには、レイアウト1、レイアウト2、及びレイアウト3の3種類のレイアウトがある。なお、レイアウトの種類は3種類に限定されず、任意の数のレイアウトが用意されてもよい。
[4-1. Configuration example of screen layout]
FIG. 5 is an explanatory view showing a configuration example of a screen layout according to the embodiment of the present invention. As shown in FIG. 5, the layout of the screen displayed on the operation display unit 136 according to the embodiment of the present invention includes three layouts of layout 1, layout 2 and layout 3. The type of layout is not limited to three, and an arbitrary number of layouts may be prepared.

各レイアウトは、第1の表示領域、第2の表示領域、第3の表示領域、及び第4の表示領域のいずれかの組み合わせで構成されている。第1の表示領域は、ユーザの対話相手であるAIを示すAI画像(対話相手画像)と、AIの発話内容を表示する領域である。第2の表示領域は、ユーザを示す画像と、ユーザの発話内容を表示する領域である。第3の表示領域は、サービスを表示する領域である。第3の表示領域に表示されるサービスは、音声入力による選択、及び画面のタッチによる選択が可能なサービスである。第4の表示領域は、処理に関する処理情報、及びサービス情報等を表示する領域である。なお、各表示領域の詳細な構成については後述する。   Each layout is configured by any combination of a first display area, a second display area, a third display area, and a fourth display area. The first display area is an area for displaying an AI image (an interactive partner image) indicating an AI as an interactive partner of the user and an utterance content of the AI. The second display area is an area for displaying an image indicating the user and the content of the user's speech. The third display area is an area for displaying a service. The service displayed in the third display area is a service that can be selected by voice input and can be selected by touching the screen. The fourth display area is an area for displaying process information related to the process, service information, and the like. The detailed configuration of each display area will be described later.

レイアウト1は、第1の表示領域404、及び第2の表示領域408の組み合わせにより構成されている。レイアウト1は、ユーザとAIが対話を行う画面のレイアウトに用いられる。例えば、レイアウト1は、初期画面のレイアウトに用いられる。また、第3の表示領域に表示するサービスがない場合にも用いられる。   The layout 1 is configured by a combination of a first display area 404 and a second display area 408. The layout 1 is used for the layout of the screen where the user and the AI interact. For example, layout 1 is used for the layout of the initial screen. It is also used when there is no service to be displayed in the third display area.

レイアウト2は、第1の表示領域504、及び第2の表示領域508、及び第3の表示領域512の組み合わせにより構成されている。レイアウト2は、サービスを表示する画面のレイアウトに用いられる。例えば、レイアウト2は、ユーザの発話に基づき、AIが検索したサービスを表示する画面のレイアウトに用いられる。   The layout 2 is configured by a combination of a first display area 504, a second display area 508, and a third display area 512. The layout 2 is used for the layout of the screen displaying the service. For example, the layout 2 is used for the layout of the screen displaying the service searched by the AI based on the user's utterance.

レイアウト3は、第1の表示領域604、及び第4の表示領域608の組み合わせにより構成されている。レイアウト3は、ユーザとの対話が生じない画面のレイアウトに用いられる。例えば、レイアウト3は、決済処理中、またはチケット発券処理中等の画面のレイアウトに用いられる。   The layout 3 is configured by a combination of a first display area 604 and a fourth display area 608. The layout 3 is used for the layout of the screen in which no interaction with the user occurs. For example, the layout 3 is used for the layout of a screen during settlement processing or ticket issuance processing.

なお、第1の表示領域は各レイアウトで用いられているが、レイアウト1で用いられる場合と、レイアウト2、及びレイアウト3で用いられる場合で、第1の表示領域を表示する大きさが異なる。例えば、第1の表示領域は、レイアウト2、及びレイアウト3で用いられる場合、レイアウト1で用いられる場合よりも小さく表示される。その際に、操作表示部136は、第1の表示領域に表示されるAI画像も小さく表示する。   Although the first display area is used in each layout, the size in which the first display area is displayed is different between the case of being used in layout 1 and the case of being used in layout 2 and layout 3. For example, when used in layout 2 and layout 3, the first display area is displayed smaller than that used in layout 1. At this time, the operation display unit 136 also displays the AI image displayed in the first display area in a smaller size.

また、操作表示部136は、AI画像を小さく表示する時にAI画像の丸枠を小さくするが、操作表示部136が丸枠内のAIを示す人物等の画像も小さくするか否かは、特に限定されない。例えば、操作表示部136は、図6のレイアウト2Aに示すように、レイアウト1のAI画像702の丸枠、及び人物の画像を小さくして、AI画像704のように表示してもよい。また、例えば、操作表示部136は、図6レイアウト2Bに示すように、レイアウト1のAI画像702の丸枠のみを小さくして、人物の画像は等倍のまま、AI画像706のように表示してもよい。   In addition, the operation display unit 136 reduces the round frame of the AI image when the AI image is displayed small, but it is particularly determined whether the image of the person or the like indicating the AI in the round frame is also reduced. It is not limited. For example, as shown in the layout 2A of FIG. 6, the operation display unit 136 may reduce the size of the circle of the AI image 702 of layout 1 and the image of the person and display the AI image 704 as shown. Further, for example, as shown in the layout 2B of FIG. 6, the operation display unit 136 reduces only the round frame of the AI image 702 of layout 1 and displays the person's image like an AI image 706 while maintaining the same magnification. You may

また、各レイアウトを構成する各表示領域の組み合わせは、上述した組み合わせに限定されず、任意の組み合わせが用いられてもよい。   Moreover, the combination of each display area which comprises each layout is not limited to the combination mentioned above, Arbitrary combinations may be used.

以上、図5、及び図6を参照しながら、本発明の実施形態に係る画面のレイアウトの構成例について説明した。続いて、レイアウト1を用いた画面について説明する。   In the above, the configuration example of the screen layout according to the embodiment of the present invention has been described with reference to FIGS. 5 and 6. Subsequently, a screen using layout 1 will be described.

[4−2.レイアウト1を用いた画面]
以下では、レイアウト1を用いた画面の構成例、及び表示例について説明する。レイアウト1は、ユーザとAIが対話を行う画面のレイアウトに用いられる。レイアウト1は、AIの発話内容を表示する吹き出しをAI画像の下に、ユーザの発話内容を表示する吹き出しをユーザ画像の上に配置することで、対話内容を示す情報が画面の中央に表示されるようにしている。よって、ユーザは、対話内容を視認する際の視線の移動量を小さくすることができる。
[4-2. Screen using layout 1]
Hereinafter, a configuration example of a screen using layout 1 and a display example will be described. The layout 1 is used for the layout of the screen where the user and the AI interact. The layout 1 arranges a balloon for displaying the uttered content of AI below the AI image and a balloon for displaying the uttered content of the user above the user image, whereby information indicating the content of the dialogue is displayed at the center of the screen. I am trying to Therefore, the user can reduce the movement amount of the line of sight when viewing the contents of the dialogue.

[4−2−1.レイアウト1を用いた画面の構成例]
以下では、レイアウト1を用いた画面の構成例について説明する。図7は、レイアウト1を用いた画面を操作表示部136に表示した例を示す図である。図7に示すように、操作表示部136に表示された画面には、第1の表示領域404、及び第2の表示領域408で構成されるレイアウト1が用いられ、第2の表示領域は、第1の表示領域の下に配置されている。第1の表示領域404は、AI画像412、及び吹き出し416で構成されている。AI画像412には、AI画像が表示され、吹き出し416には、AIが発話した内容が表示されている。また、第2の表示領域408は、ユーザ画像420、及び吹き出し424で構成されている。ユーザ画像420には、ユーザ画像が表示され、吹き出し424には、ユーザが発話した内容が表示されている。なお、各吹き出しの中には、テキストデータに変換された発話内容がテキスト表記される。以下、他のレイアウトで用いられる吹き出しの中も同様に、テキストデータに変換された発話内容がテキスト表記される。
[4-2-1. Configuration Example of Screen Using Layout 1]
Below, the structural example of the screen using the layout 1 is demonstrated. FIG. 7 is a diagram showing an example in which a screen using layout 1 is displayed on the operation display unit 136. As shown in FIG. As shown in FIG. 7, in the screen displayed on the operation display unit 136, the layout 1 configured by the first display area 404 and the second display area 408 is used, and the second display area is It is arranged under the first display area. The first display area 404 is composed of an AI image 412 and a balloon 416. In the AI image 412, an AI image is displayed, and in the balloon 416, the content uttered by the AI is displayed. Further, the second display area 408 is configured of a user image 420 and a balloon 424. The user image 420 displays a user image, and the balloon 424 displays the contents uttered by the user. The speech contents converted into text data are described in text in each balloon. The speech contents converted into text data are similarly described in the same way in the balloon used in the other layouts.

[4−2−2.レイアウト1を用いた画面の表示例]
以下では、レイアウト1を用いた画面の表示例について説明する。例えば、図7に示す操作表示部136は、顧客操作型端末10がユーザを検知した際の初期画面を表示している。初期画面表示後、例えば、AIは、「いらっしゃいませ。お伺いします。こちらでは、列車の乗換方法および観光地をご案内致します。目的地から検索、ジャンルから検索、お勧めプランのご提案の3種類からご案内できます。」と発話する。AIが発話した内容は、吹き出し416に表示される。AIの発話に対して、ユーザが「目的地から検索したい。」と発話すると、ユーザが発話した内容は、吹き出し424に表示される。
4-2-2. Display example of screen using layout 1]
Below, the example of a display of the screen using layout 1 is explained. For example, the operation display unit 136 illustrated in FIG. 7 displays an initial screen when the customer operation type terminal 10 detects a user. After the initial screen is displayed, AI, for example, "Welcome. Welcome. We will show you how to transfer trains and sightseeing spots here. Search by destination, search by genre, suggestion of recommended plan. We can guide from three kinds of ". The contents uttered by the AI are displayed in a balloon 416. When the user utters “I want to search from a destination” in response to the AI utterance, the content uttered by the user is displayed in the balloon 424.

図8には、図7に示したAIとユーザの対話の続きが示されている。図7に示したユーザの「目的地から検索したい。」という発話をAIが認識すると、AIは、「目的地から検索ですね。どちらまで行かれますか?」と発話し、図8に示す吹き出し416に発話した内容が表示される。さらに、AIの発話に対して、ユーザが「AAA駅まで行きたい。」と発話すると、発話した内容は吹き出し424に表示される。   FIG. 8 shows the continuation of the interaction between the AI and the user shown in FIG. When the AI recognizes the utterance “I want to search from the destination” shown in FIG. 7, the AI utters “I am searching from the destination. The uttered content is displayed on the balloon 416. Furthermore, when the user utters “I want to go to the AAA station” in response to the AI utterance, the uttered content is displayed in the balloon 424.

以上、図7、及び図8を参照しながら、本発明の実施形態に係るレイアウト1を用いた画面について説明した。続いて、レイアウト2を用いた画面について説明する。   Hereinabove, the screen using the layout 1 according to the embodiment of the present invention has been described with reference to FIGS. 7 and 8. Subsequently, the screen using the layout 2 will be described.

[4−3.レイアウト2を用いた画面]
以下では、レイアウト2を用いた画面の構成例、及び表示例について説明する。レイアウト2は、ユーザの発話に基づき、AIが検索したサービスを表示する画面のレイアウトに用いられる。レイアウト2は、AIの発話内容を表示する吹き出しをAI画像の下に、ユーザの発話内容を表示する吹き出しをユーザ画像の上に配置し、さらに、サービスをAIの吹き出しとユーザの吹き出しの間に配置し、サービスと対話内容を示す情報が画面の中央に表示されるようにしている。よって、ユーザは、サービスの操作画面を操作する際に、操作画面から視線をあまり移動することなく、対話内容を視認することができる。また、ユーザは、サービス情報の上にAI画像とAIの吹き出しが表示され、サービスの下にユーザの画像と吹き出しが表示されることで、AIとテーブルを挟んで対話しているように感じることができ、より自然に対話をしている感覚を得ることができる。
[4-3. Screen using layout 2]
Hereinafter, a configuration example and a display example of a screen using the layout 2 will be described. The layout 2 is used for the layout of the screen displaying the service searched by the AI based on the user's speech. Layout 2 arranges a speech balloon displaying AI's speech content below the AI image and a speech balloon displaying the user's speech content above the user image, and further, places the service between the AI speech balloon and the user's speech balloon It arranges, and the information showing the service and the contents of dialogue is displayed in the center of the screen. Therefore, when the user operates the operation screen of the service, the user can visually recognize the contents of the dialog without much moving the line of sight from the operation screen. In addition, the user feels that the AI image and the balloon are displayed above the service information, and the user's image and the balloon are displayed below the service, so that the user feels that the user interacts with the AI across the table. And you can get a sense of interacting more naturally.

[4−3−1.レイアウト2を用いた画面の構成例]
以下では、レイアウト2を用いた画面の構成例について説明する。図9は、レイアウト2を用いた画面を操作表示部136に表示した例を示す図である。図9に示すように、操作表示部136に表示された画面には、第1の表示領域504、第2の表示領域508、及び第3の表示領域512で構成されるレイアウト2が用いられている。また、第3の表示領域は第1の表示領域と第2の表示領域の間に配置され、第1の表示領域は、第3の表示領域より上に配置され、第2の表示領域は、第3の表示領域より下に配置される。第1の表示領域504は、AI画像516、及び吹き出し520で構成されている。AI画像516には、AI画像が表示され、吹き出し520には、AIが発話した内容が表示されている。また、第2の表示領域508は、ユーザ画像524、及び吹き出し528で構成されている。ユーザ画像524には、ユーザ画像が表示され、吹き出し528には、ユーザが発話した内容が表示されている。
[4-3-1. Example of Screen Configuration Using Layout 2]
Below, the structural example of the screen using the layout 2 is demonstrated. FIG. 9 is a diagram showing an example in which a screen using layout 2 is displayed on the operation display unit 136. As shown in FIG. As shown in FIG. 9, in the screen displayed on the operation display unit 136, the layout 2 constituted by the first display area 504, the second display area 508, and the third display area 512 is used. There is. The third display area is disposed between the first display area and the second display area, the first display area is disposed above the third display area, and the second display area is It is disposed below the third display area. The first display area 504 is composed of an AI image 516 and a balloon 520. In the AI image 516, an AI image is displayed, and in the balloon 520, the content uttered by the AI is displayed. Further, the second display area 508 is configured by the user image 524 and the balloon 528. The user image 524 displays the user image, and the balloon 528 displays the content uttered by the user.

また、第3の表示領域512は、検索結果532、及び詳細ボタン536で構成されている。検索結果532には、画面データURLにアクセスして得られる画面データが検索結果として表示される。検索結果が複数ある場合、第3の表示領域512は、図9に示す検索結果532A、検索結果532B、検索結果532Cのように、複数の検索結果を表示してよい。詳細ボタン536は、検索結果532の詳細を表示するためのボタンである。図9に示すように、1つの検索結果532に対して1つの詳細ボタン536が表示される。例えば、ユーザが詳細ボタン536Aを押下すると、操作表示部136の画面は、検索結果532Aの詳細を表示する画面に遷移する。また、例えば、ユーザが詳細ボタン536Bを押下すると、操作表示部136の画面は、検索結果532Bの詳細を表示する画面に遷移する。また、例えば、ユーザが「ルート3の詳細を表示してください。」と発話し、AIがユーザの発話を認識すると、操作表示部136の画面は、検索結果532Cの詳細を表示する画面に遷移する。なお、ユーザが発話した内容は、吹き出し528に表示される。   In addition, the third display area 512 is configured by a search result 532 and a detail button 536. In the search result 532, screen data obtained by accessing the screen data URL is displayed as a search result. When there are a plurality of search results, the third display area 512 may display a plurality of search results, such as the search results 532A, the search results 532B, and the search results 532C shown in FIG. The details button 536 is a button for displaying the details of the search result 532. As shown in FIG. 9, one detail button 536 is displayed for one search result 532. For example, when the user presses the detail button 536A, the screen of the operation display unit 136 transitions to a screen displaying the details of the search result 532A. Also, for example, when the user presses the detail button 536B, the screen of the operation display unit 136 transitions to a screen that displays the details of the search result 532B. Also, for example, when the user utters "Please display the details of route 3" and the AI recognizes the user's utterance, the screen of the operation display unit 136 transitions to a screen displaying the details of the search result 532C. Do. The contents uttered by the user are displayed in the balloon 528.

[4−3−2.レイアウト2を用いた画面の表示例]
以下では、レイアウト2を用いた画面の表示例について説明する。例えば、図9に示す操作表示部136は、図8のユーザの発話に基づき顧客操作型端末10が検索した結果を表示している。検索結果表示後、例えば、AIは、「AAA駅までですね。以下の3つのルートで行けます。」と発話する。AIが発話した内容は、吹き出し520に表示される。AIの発話に対して、ユーザが「ルート1でお願いします。」と発話すると、ユーザが発話した内容は、吹き出し528に表示される。AIがユーザの「ルート1でお願いします。」という発話を認識すると、操作表示部136は、検索結果の詳細画面を表示する。なお、操作表示部136は、ユーザが詳細ボタン536を押下しても検索結果の詳細画面を表示することが可能である。
[4-3-2. Display example of screen using layout 2]
Below, the example of a display of the screen using layout 2 is explained. For example, the operation display unit 136 shown in FIG. 9 displays the result of the search of the customer operation type terminal 10 based on the speech of the user in FIG. After displaying the search results, for example, AI utters, "To AAA station. You can go by the following three routes." The contents uttered by the AI are displayed in a balloon 520. When the user utters "Please route 1" in response to the AI utterance, the content uttered by the user is displayed in the balloon 528. When the AI recognizes the user's utterance "Please give me Route 1", the operation display unit 136 displays a detail screen of the search result. The operation display unit 136 can display the detail screen of the search result even if the user presses the detail button 536.

図10には、図9に示したAIとユーザの対話の続きが示されている。図9に示したユーザの「ルート1でお願いします。」という発話をAIが認識すると、AIは、「ルート1ですね。このルートのチケットを購入できます。」と発話し、図10に示す吹き出し520に発話した内容が表示される。また、操作表示部136は、ユーザが選択したルート1の詳細を検索結果詳細540に表示する。さらに、AIの発話に対して、ユーザが「購入します。」と発話すると、発話した内容は吹き出し528に表示される。AIがユーザの「購入します。」という発話を認識すると、操作表示部136は、チケットの決済処理を行う画面を表示する。なお、操作表示部136は、ユーザが第3の表示領域内の購入ボタンを押下してもチケットの決済処理を行う画面を表示することが可能である。   FIG. 10 shows the continuation of the interaction between the AI and the user shown in FIG. When the AI recognizes the utterance "Please make me a request at route 1" shown in FIG. 9, the AI utters, "You are able to buy a ticket for this route. You can buy a ticket for this route." The uttered content is displayed on a balloon 520 shown. The operation display unit 136 also displays the details of the route 1 selected by the user in the search result details 540. Furthermore, when the user utters “I will purchase” in response to the AI utterance, the uttered content is displayed in the balloon 528. When the AI recognizes the user's "purchase" utterance, the operation display unit 136 displays a screen for performing a ticket settlement process. The operation display unit 136 can display a screen for performing a ticket settlement process even if the user presses the purchase button in the third display area.

以上、図9、及び図10を参照しながら、本発明の実施形態に係るレイアウト2を用いた画面について説明した。続いて、レイアウト3を用いた画面について説明する。   The screen using the layout 2 according to the embodiment of the present invention has been described above with reference to FIGS. 9 and 10. Subsequently, a screen using the layout 3 will be described.

[4−4.レイアウト3を用いた画面]
以下では、レイアウト3を用いた画面の構成例、及び表示例について説明する。レイアウト3は、ユーザとの対話が生じない決済処理中、またはチケット発券処理中等の画面のレイアウトに用いられる。レイアウト3は、天気予報等のサービス情報を表示することができる。よって、ユーザは、決済処理、または発券処理が完了するまでの時間を退屈することなく過ごすことができる。
[4-4. Screen using layout 3]
Hereinafter, a configuration example of a screen using the layout 3 and a display example will be described. The layout 3 is used for layout of a screen during settlement processing in which no dialog with the user occurs, or in ticket ticket processing. The layout 3 can display service information such as a weather forecast. Thus, the user can spend time without payment processing or ticket processing being completed.

[4−4−1.レイアウト3を用いた画面の構成例]
以下では、レイアウト3を用いた画面の構成例について説明する。図11は、レイアウト3を用いた画面を操作表示部136に表示した例を示す図である。図11に示すように、操作表示部136に表示された画面には、第1の表示領域604、及び第4の表示領域608で構成されるレイアウト3が用いられ、第4の表示領域は、第1の表示領域の下に配置されている。第1の表示領域604は、AI画像612、及び吹き出し616で構成されている。AI画像612には、AI画像が表示され、吹き出し616には、AIが発話した内容が表示されている。また、第4の表示領域608は、処理情報620、及び処理情報624で構成されている。処理情報620には、決済処理に関する画像として、現金の投入に関する画像が表示され、処理情報624には、カードの挿入に関する画像が表示されている。なお、処理情報として表示する画像は、現金の投入、及びカードの挿入に関する画像に限定されず、任意の画像が表示されてもよい。また、処理情報には、アニメーション画像が表示されてもよい。また、図11では、第4の表示領域に2つの処理情報を表示しているが、第4の表示領域に表示する処理情報の数は限定されず、任意の数の処理情報が表示されてよい。
[4-4-1. Configuration Example of Screen Using Layout 3]
Below, the structural example of the screen using the layout 3 is demonstrated. FIG. 11 is a diagram showing an example in which a screen using layout 3 is displayed on the operation display unit 136. As shown in FIG. As shown in FIG. 11, in the screen displayed on the operation display unit 136, Layout 3 configured by the first display area 604 and the fourth display area 608 is used, and the fourth display area is It is arranged under the first display area. The first display area 604 is composed of an AI image 612 and a balloon 616. In the AI image 612, an AI image is displayed, and in the balloon 616, the content uttered by the AI is displayed. In addition, the fourth display area 608 is configured by processing information 620 and processing information 624. In the processing information 620, an image regarding insertion of cash is displayed as an image regarding payment processing, and in the processing information 624, an image regarding insertion of a card is displayed. In addition, the image displayed as process information is not limited to the image regarding insertion of cash, and insertion of a card, Arbitrary images may be displayed. In addition, an animation image may be displayed as the processing information. Further, in FIG. 11, two pieces of processing information are displayed in the fourth display area, but the number of pieces of processing information to be displayed in the fourth display area is not limited, and an arbitrary number of pieces of processing information are displayed Good.

例えば、図11に示す操作表示部136は、図10のユーザの発話に基づき顧客操作型端末10が決済処理を行うための画面を表示している。決済処理画面表示後、例えば、AIは、「現金またはカードをお入れください。」と発話する。AIが発話した内容は、吹き出し616に表示される。AIの発話に対して、ユーザが決済媒体部140に現金またはカードを入れると、AIは決済処理を実行する。決済処理が完了すると、顧客操作型端末10はチケットを発券する処理を実行する。   For example, the operation display unit 136 shown in FIG. 11 displays a screen for the customer operation type terminal 10 to perform payment processing based on the speech of the user in FIG. After displaying the payment processing screen, for example, the AI utters "Please insert cash or card." The content uttered by the AI is displayed in a balloon 616. When the user inserts cash or a card into the payment medium unit 140 for the AI utterance, the AI executes payment processing. When the settlement process is completed, the customer operation type terminal 10 executes a process of issuing a ticket.

[4−4−2.レイアウト3を用いた画面の表示例]
以下では、レイアウト3を用いた画面の表示例について説明する。例えば、図12に示す操作表示部136は、決済処理後にチケットの発券処理を実行中であることを示すための画面を表示している。チケット発券処理画面表示後、例えば、AIは、「発券しています。」と発話する。AIが発話した内容は、吹き出し616に表示される。また、処理情報628は、「発券中です。しばらくお待ちください。」と発券中である旨を大きくテキスト表示する。また、処理情報632は、ユーザがチケットの発券を待っている間に退屈しないように、天気予報等のサービス情報を表示する。チケットの発券処理が完了すると、操作表示部136は、チケット、おつり、及びカードの取り忘れを注意する画面を表示する。
[4-4-2. Display example of screen using layout 3]
Below, the example of a display of the screen using layout 3 is explained. For example, the operation display unit 136 illustrated in FIG. 12 displays a screen for indicating that ticketing processing of a ticket is being performed after settlement processing. After the ticket issue processing screen is displayed, for example, the AI utters "We are issuing tickets." The content uttered by the AI is displayed in a balloon 616. Further, the processing information 628 displays a large text indicating that the ticket is being issued, saying "The ticket is being issued. Please wait for a while." Further, the processing information 632 displays service information such as a weather forecast so that the user does not get bored while waiting for a ticket to be issued. When the ticket issue process is completed, the operation display unit 136 displays a screen that warns of taking a ticket, a package, and a card.

例えば、図13に示す操作表示部136は、チケット、おつり、及びカードの取り忘れを注意する画面を表示している。注意画面表示後、例えば、AIは、「チケットを受け取りください。おつりまたはカードのお取り忘れにご注意ください。」と発話する。AIが発話した内容は、吹き出し616に表示される。また、処理情報636は、チケットの受け取りを示す画像を表示する。また、処理情報640は、おつり、またはカードの受け取りを示す画像を表示する。ユーザがチケットを受け取ると、操作表示部136は、初期画面を表示する。   For example, the operation display unit 136 illustrated in FIG. 13 displays a screen for paying attention to the removal of a ticket, a tray, and a card. After the caution screen is displayed, for example, the AI utters, "Please receive a ticket. Please note that you forgot to take a deposit or a card." The content uttered by the AI is displayed in a balloon 616. Further, the processing information 636 displays an image indicating receipt of the ticket. Further, the processing information 640 displays an image indicating receipt of a cash or card. When the user receives a ticket, the operation display unit 136 displays an initial screen.

以上、図11〜図13を参照しながら、本発明の実施形態に係るレイアウト3を用いた画面について説明した。続いて、本発明の実施形態に係る動作例について説明する。   In the above, the screen using the layout 3 according to the embodiment of the present invention has been described with reference to FIGS. Subsequently, an operation example according to the embodiment of the present invention will be described.

<5.動作例>
以下では、本発明の実施形態に係る顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。まず、ユーザ検知時の動作例について説明する。
<5. Operation example>
Below, the operation example of the customer operation type terminal 10 which concerns on embodiment of this invention, and the WebAP server 30 is demonstrated. First, an operation example at the time of user detection will be described.

[5−1.ユーザ検知時の動作例]
以下では、図14、及び図15を参照しながら、ユーザ検知時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。図14は、ユーザ検知時の顧客操作型端末10の動作例を示すシーケンス図である。また、図15は、ユーザ検知時のWebAPサーバ30の動作例を示すシーケンス図である。
[5-1. Operation example at the time of user detection]
Hereinafter, an operation example of the customer operation type terminal 10 and the WebAP server 30 at the time of user detection will be described with reference to FIGS. 14 and 15. FIG. 14 is a sequence diagram showing an operation example of the customer operation type terminal 10 at the time of user detection. FIG. 15 is a sequence diagram showing an operation example of the Web AP server 30 at the time of user detection.

まず、図14に示すように、顧客操作型端末10のカメラAP154は、人物を検知すると、人物を検知した旨を音声認識AP170へ通知する(ステップS1000)。音声認識AP170は、カメラAPから人物を検知した旨の通知を受けると、WebSocketサーバ162に接続し、ユーザからの音声入力を受け付け可能な状態で待機する(ステップS1004)。また、画面AP158は、WebAPサーバ30からWebページURLを取得し、Webページを初期画面として表示する(ステップS1008)。   First, as shown in FIG. 14, when detecting a person, the camera AP 154 of the customer operation type terminal 10 notifies the voice recognition AP 170 that the person is detected (step S1000). When the voice recognition AP 170 receives a notification from the camera AP that it has detected a person, the voice recognition AP 170 connects to the WebSocket server 162, and stands by in a state where voice input from the user can be received (step S1004). Also, the screen AP 158 acquires the web page URL from the web AP server 30, and displays the web page as an initial screen (step S1008).

ここで、図15を参照しながらステップS1008の詳細を説明する。図15に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の業務WebAPサーバ304にWebページURLを要求する(ステップS1010)。要求を受信した業務WebAPサーバ304は、WebページURLを画面AP158へ送信する(ステップS1012)。WebページURLを受信した画面AP158は、WebページURLにアクセスし、Webページを初期画面として表示する(ステップS1014)。   Here, the details of step S1008 will be described with reference to FIG. As shown in FIG. 15, the screen AP 158 of the customer operation type terminal 10 requests the Web page URL from the business Web AP server 304 of the Web AP server 30 (step S1010). The business Web AP server 304 having received the request transmits the Web page URL to the screen AP 158 (step S1012). The screen AP 158 that has received the web page URL accesses the web page URL and displays the web page as an initial screen (step S1014).

初期画面表示後、図14に示すように、画面AP158は、WebSocketサーバ162に接続し、ユーザからの画面操作入力を受け付け可能な状態で待機する(ステップS1018)。また、画面AP158は、音声受信待ち状態である旨を音声認識AP170へWebSocketサーバ162を介して通知する(ステップS1022、ステップS1026)。通知を受けた音声認識AP170は、音声受信待ち状態である旨をWebAPサーバ30へ通知する(ステップS1030)。   After the initial screen is displayed, as shown in FIG. 14, the screen AP 158 is connected to the WebSocket server 162, and stands by in a state where the screen operation input from the user can be received (step S1018). Also, the screen AP 158 notifies the voice recognition AP 170 that it is in the voice reception waiting state via the WebSocket server 162 (steps S1022 and S1026). The voice recognition AP 170 that has received the notification notifies the Web AP server 30 that it is in a state of waiting for voice reception (step S1030).

ここで、図15を参照しながらステップS1030の詳細を説明する。図15に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の音声認識エンジン部308に音声認識を開始する旨を通知する(ステップS1032)。通知を受けた音声認識エンジン部308は、音声を受け付け可能な状態で待機する。   Here, the details of step S1030 will be described with reference to FIG. As shown in FIG. 15, the screen AP 158 of the customer operation type terminal 10 notifies the voice recognition engine unit 308 of the Web AP server 30 that voice recognition is to be started (step S1032). The voice recognition engine unit 308 that has received the notification stands by in a state where it can receive voice.

以上、図14、及び図15を参照しながら、ユーザ検知時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明した。続いて、音声情報取得時の動作例について説明する。   In the above, the operation example of the customer operation type terminal 10 and the WebAP server 30 at the time of user detection has been described with reference to FIGS. 14 and 15. Subsequently, an operation example at the time of acquiring voice information will be described.

[5−2.音声情報取得時の動作例]
以下では、図16、及び図17を参照しながら、音声情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。顧客操作型端末10は、マイク128がユーザの音声情報を取得すると、取得した音声情報に基づき応答を決定し、決定した応答を実行する。図16は、音声情報取得時の顧客操作型端末10の動作例を示すシーケンス図である。また、図17は、音声情報取得時のWebAPサーバ30の動作例を示すシーケンス図である。
5-2. Example of operation when acquiring voice information]
Hereinafter, an operation example of the customer operation type terminal 10 and the WebAP server 30 at the time of acquiring voice information will be described with reference to FIGS. 16 and 17. When the microphone 128 acquires voice information of the user, the customer operation type terminal 10 determines a response based on the acquired voice information, and executes the determined response. FIG. 16 is a sequence diagram showing an operation example of the customer operation type terminal 10 at the time of voice information acquisition. FIG. 17 is a sequence diagram showing an operation example of the WebAP server 30 at the time of acquiring voice information.

まず、図16に示すように、顧客操作型端末10のマイク128は、ユーザの発話による音声情報を取得すると(ステップS1100)、取得した音声を雑音除去モジュール166へ出力する(ステップS1104)。音声を取得した雑音除去モジュール166は、音声から雑音を除去する処理を行い(ステップS1106)、雑音を除去した音声を音声認識AP170へ出力する(ステップS1108)。音声を取得した音声認識AP170は、音声をWebAPサーバ30へ送信し、WebAPサーバ30から音声のテキストデータを受信する(ステップS1112)。   First, as shown in FIG. 16, when the microphone 128 of the customer operation type terminal 10 acquires voice information by the user's speech (step S1100), the microphone 128 outputs the acquired voice to the noise removal module 166 (step S1104). The noise removal module 166 that has acquired the voice performs processing to remove noise from the voice (step S1106), and outputs the voice from which the noise has been removed to the voice recognition AP 170 (step S1108). The voice recognition AP 170 that has acquired the voice transmits the voice to the Web AP server 30, and receives the text data of the voice from the Web AP server 30 (step S1112).

ここで、図17を参照しながらステップS1112の詳細を説明する。図17に示すように、顧客操作型端末10の音声認識AP170は、WebAPサーバ30の音声認識エンジン部308に音声を送信する(ステップS1114)。音声を受信した音声認識エンジン部308は、音声をテキストデータに変換する処理を行い(ステップS1116)、変換されたテキストデータを音声認識AP170へ送信する(ステップS1118)。   Here, the details of step S1112 will be described with reference to FIG. As shown in FIG. 17, the voice recognition AP 170 of the customer operation type terminal 10 transmits a voice to the voice recognition engine unit 308 of the WebAP server 30 (step S1114). The voice recognition engine unit 308 having received the voice performs processing of converting the voice into text data (step S1116), and transmits the converted text data to the voice recognition AP 170 (step S1118).

テキストデータ受信後、図16に示すように、音声認識AP170は、テキストデータを画面AP158へWebSocketサーバ162を介して送信する(ステップS1122、ステップS1126)。テキストデータを受信した画面AP158は、テキストデータを画面に表示する(ステップS1130)。テキストデータを画面に表示した後、画面AP158は、WebAPサーバ30から次の会話文の音声ファイルと画面データURLを受信し、ユーザの発話に対する応答を行う(ステップS1134)。   After receiving the text data, as shown in FIG. 16, the speech recognition AP 170 transmits the text data to the screen AP 158 via the WebSocket server 162 (steps S1122 and S1126). The screen AP 158 that has received the text data displays the text data on the screen (step S1130). After displaying the text data on the screen, the screen AP 158 receives the voice file of the next conversational sentence and the screen data URL from the Web AP server 30, and responds to the user's speech (step S1134).

ここで、図17を参照しながらステップS1134の詳細を説明する。図17に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の業務WebAPサーバ304にテキストデータを送信する(ステップS1136)。テキストデータを受信した業務WebAPサーバ304は、次の会話文を取得するため、テキストデータをAI対話エンジン部312へ送信する(ステップS1138)。テキストデータを受信したAI対話エンジン部312は、テキストデータに対する応答となる次の会話文を対話データ記憶部316から取得し(ステップS1140)、業務WebAPサーバ304へ次の会話文を送信する(ステップS1142)。   Here, the details of step S1134 will be described with reference to FIG. As shown in FIG. 17, the screen AP 158 of the customer operation type terminal 10 transmits text data to the business Web AP server 304 of the Web AP server 30 (step S1136). The business Web AP server 304 having received the text data transmits the text data to the AI dialogue engine unit 312 in order to acquire the next conversational sentence (step S1138). The AI dialogue engine unit 312 having received the text data acquires the next conversational sentence serving as a response to the text data from the dialogue data storage unit 316 (step S1140), and transmits the next conversational sentence to the business Web AP server 304 (step S1142).

次の会話文を受信した業務WebAPサーバ304は、次の会話文の音声ファイルを発話音声エンジン部320に要求する(ステップS1144)。業務WebAPサーバ304から要求を受けた発話音声エンジン部320は、次の会話文の音声ファイルを業務WebAPサーバ304へ送信する(ステップS1146)。次の会話文の音声ファイルを受信した業務WebAPサーバ304は、次の会話文の音声ファイルと、ユーザの発話に対する応答となるサービスを表示するための画面データURLを画面AP158へ送信する(ステップS1148)。   The business Web AP server 304 that has received the next conversational sentence requests the speech voice engine unit 320 for a speech file of the next conversational sentence (step S1144). The speech voice engine unit 320, which receives the request from the business Web AP server 304, transmits the speech file of the next conversation sentence to the business Web AP server 304 (step S1146). The business WebAP server 304 that has received the voice file of the next conversational sentence transmits the voice file of the next conversational sentence and the screen data URL for displaying the service as a response to the user's speech to the screen AP 158 (step S1148). ).

画面AP158は、テキストデータ、及び画面データURLにアクセスして取得した画面データを表示する(ステップS1150)。また、画面AP158は、音声ファイルを再生し、応答の内容を音声でユーザへ伝える(ステップS1152)。   The screen AP 158 displays the screen data acquired by accessing the text data and the screen data URL (step S1150). Also, the screen AP 158 reproduces the audio file and conveys the content of the response to the user by audio (step S1152).

なお、顧客操作型端末10は、音声認識機能のONとOFFを切り替えることが可能である。図16に示すように、音声認識機能をONにする場合、画面AP158は、音声認識機能をONにする旨の指示を音声認識AP170へ送信する(ステップS1156)。指示を受信した音声認識AP170は、音声認識機能をONにし、指示に対する応答として音声認識機能をONにした旨を画面AP158へ送信する(ステップS1160)。また、音声認識機能をOFFにする場合、画面AP158は、音声認識機能をOFFにする旨の指示を音声認識AP170へ送信する(ステップS1164)。指示を受信した音声認識AP170は、音声認識機能をOFFにし、指示に対する応答として音声認識機能をOFFにした旨を画面AP158へ送信する(ステップS1168)。   In addition, the customer operation type terminal 10 can switch ON and OFF of a speech recognition function. As shown in FIG. 16, when the voice recognition function is turned on, the screen AP 158 transmits an instruction to turn on the voice recognition function to the voice recognition AP 170 (step S1156). The voice recognition AP 170 receives the instruction, turns on the voice recognition function, and transmits to the screen AP 158 that the voice recognition function has been turned on as a response to the instruction (step S1160). When the speech recognition function is to be turned off, the screen AP 158 transmits an instruction to turn off the speech recognition function to the speech recognition AP 170 (step S 1164). The voice recognition AP 170 receives the instruction, turns off the voice recognition function, and transmits to the screen AP 158 that the voice recognition function has been turned off as a response to the command (step S1168).

なお、音声認識機能がONであり、チケットの発券処理中にユーザが顧客操作型端末10に話しかけた場合、制御部150は、操作表示部136に表示されているサービス情報を非表示にし、第2の表示領域を再表示してもよい。   When the voice recognition function is ON and the user speaks to the customer operation type terminal 10 during ticket issue processing, the control unit 150 hides the service information displayed on the operation display unit 136, and The second display area may be redisplayed.

以上、図16、及び図17を参照しながら、音声情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明した。続いて、画面操作情報取得時の動作例について説明する。   In the above, the operation example of the customer operation type terminal 10 and the WebAP server 30 at the time of voice information acquisition has been described with reference to FIGS. 16 and 17. Subsequently, an operation example at the time of acquiring screen operation information will be described.

[5−3.画面操作情報取得時の動作例]
以下では、図18、及び図19を参照しながら、画面操作情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。顧客操作型端末10は、操作表示部136がユーザの画面操作情報を取得すると、取得した画面操作情報に基づき応答を決定し、決定した応答を実行する。図18は、画面操作情報取得時の顧客操作型端末10の動作例を示すシーケンス図である。また、図19は、画面操作情報取得時のWebAPサーバ30の動作例を示すシーケンス図である。
[5-3. Example of operation when acquiring screen operation information]
Hereinafter, an operation example of the customer operation type terminal 10 and the WebAP server 30 at the time of acquiring the screen operation information will be described with reference to FIGS. 18 and 19. When the operation display unit 136 acquires the screen operation information of the user, the customer operation type terminal 10 determines a response based on the acquired screen operation information, and executes the determined response. FIG. 18 is a sequence diagram showing an operation example of the customer operation type terminal 10 at the time of acquiring screen operation information. FIG. 19 is a sequence diagram showing an operation example of the Web AP server 30 at the time of acquiring screen operation information.

まず、図18に示すように、顧客操作型端末10の操作表示部136は、ユーザの画面操作によりボタンを押下した情報を取得すると(ステップS1200)、取得したボタン情報を画面AP158へ送信する(ステップS1204)。ボタン情報を取得した画面AP158は、ボタン情報をWebAPサーバ30へ送信し、WebAPサーバ30から次の会話文の音声ファイルと画面データURLを受信し、ユーザのボタン操作に対する応答を行う(ステップS1208)。   First, as shown in FIG. 18, when the operation display unit 136 of the customer operation type terminal 10 acquires the information of pressing the button by the screen operation of the user (step S 1200), the acquired button information is transmitted to the screen AP 158 ( Step S1204). The screen AP 158 which has acquired the button information transmits the button information to the Web AP server 30, receives the voice file of the next conversation sentence and the screen data URL from the Web AP server 30, and responds to the user's button operation (step S1208). .

ここで、図19を参照しながらステップS1208の詳細を説明する。図19に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の業務WebAPサーバ304にボタン情報を送信する(ステップS1210)。ボタン情報を受信した業務WebAPサーバ304は、次の会話文の音声ファイルを発話音声エンジン部320に要求する(ステップS1212)。業務WebAPサーバ304から要求を受けた発話音声エンジン部320は、次の会話文の音声ファイルを業務WebAPサーバ304へ送信する(ステップS1214)。次の会話文の音声ファイルを受信した業務WebAPサーバ304は、次の会話文の音声ファイルと、ユーザの発話に対する応答となるサービスを表示するための画面データURLを画面AP158へ送信する(ステップS1216)。   Here, the details of step S1208 will be described with reference to FIG. As shown in FIG. 19, the screen AP 158 of the customer operation type terminal 10 transmits button information to the business Web AP server 304 of the Web AP server 30 (step S1210). The business Web AP server 304 that has received the button information requests the speech voice engine unit 320 for a speech file of the next conversational sentence (step S1212). The speech voice engine unit 320, which has received the request from the business Web AP server 304, transmits the speech file of the next conversation sentence to the business Web AP server 304 (step S1214). The business Web AP server 304 that has received the voice file of the next conversational sentence transmits the voice file of the next conversational sentence and the screen data URL for displaying the service as a response to the user's speech to the screen AP 158 (step S1216) ).

画面AP158は、テキストデータ、及び画面データURLにアクセスして取得した画面データを表示する(ステップS1218)。また、画面AP158は、音声ファイルを再生し、応答の内容を音声でユーザへ伝える(ステップS1220)。   The screen AP 158 displays the screen data acquired by accessing the text data and the screen data URL (step S1218). Also, the screen AP 158 reproduces the audio file and conveys the content of the response to the user by audio (step S1220).

以上、図18、及び図19を参照しながら、画面操作情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明した。続いて、本発明の効果について説明する。   In the above, the operation example of the customer operation type terminal 10 and the WebAP server 30 at the time of acquiring the screen operation information has been described with reference to FIGS. 18 and 19. Subsequently, the effects of the present invention will be described.

<6.効果>
顧客操作型端末10の制御部150は、ユーザの発話に対する応答の内容に応じて、画面のレイアウトを変更することができ、対話の内容、及び応答の内容を画面の中央に寄せて表示することができる。また、顧客操作型端末10の制御部150は、ユーザの画面操作入力に対する応答の内容についても同様に表示することができる。よって、顧客操作型端末10は、ユーザの視線の移動量を減らすことが可能である。また、顧客操作型端末10は、ユーザの画像と吹き出しよりも上にAIの画像と吹き出しを表示することで、より自然に対話をしている感覚をユーザに与えることが可能である。また、制御部150は、AIが発話した内容を表示する吹き出しの表示領域と、ユーザが発話した内容を表示する吹き出しの表示領域を画面横幅方向に対して所定の長さで表示することができる。さらに、制御部150は、AIの画像をAIが発話した内容を表示する吹き出しよりも上に表示すること、及びユーザの画像をユーザが発話した内容を表示する吹き出しよりも下に表示することができる。よって、制御部150は、各吹き出しを画面の中央に寄せて表示することができる。さらに、制御部150は、吹き出しの横幅を大きくし、吹き出し内の1行に表示可能な情報量(例えばテキストの文字数など)を多くして全体の行数を減らすことで、吹き出し内に表示される対話内容をより画面の中央に寄せて表示することができる。
<6. Effect>
The control unit 150 of the customer operation type terminal 10 can change the layout of the screen according to the contents of the response to the user's speech, and displays the contents of the dialogue and the contents of the response in the center of the screen. Can. Also, the control unit 150 of the customer operation type terminal 10 can display the contents of the response to the screen operation input of the user in the same manner. Therefore, the customer operation type terminal 10 can reduce the movement amount of the user's gaze. Further, the customer operation type terminal 10 can give the user a feeling of interacting more naturally by displaying the AI image and the balloon above the user's image and the balloon. Further, the control unit 150 can display the display area of the balloon displaying the content uttered by the AI and the display area of the balloon displaying the content uttered by the user with a predetermined length in the screen width direction. . Furthermore, the control unit 150 may display the image of the AI above the balloon displaying the content uttered by the AI, and may display the image of the user below the balloon displaying the content uttered by the user. it can. Therefore, the control unit 150 can move each balloon to the center of the screen and display it. Furthermore, the control unit 150 displays the balloon in a balloon by increasing the width of the balloon and increasing the amount of information (for example, the number of characters of text) that can be displayed on one line in the balloon to reduce the total number of lines. Can be displayed closer to the center of the screen.

以上、図1〜19を参照しながら、本発明の実施形態について説明した。続いて、本発明の実施形態に係る変形例について説明する。   The embodiments of the present invention have been described above with reference to FIGS. Then, the modification concerning an embodiment of the present invention is explained.

<7.変形例>
以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<7. Modified example>
In the following, some variants of the embodiments of the invention will be described. In addition, each modification described below may be independently applied to the embodiment of the present invention, or may be applied to the embodiment of the present invention in combination. In addition, each modification may be applied instead of the configuration described in the embodiment of the present invention, or may be additionally applied to the configuration described in the embodiment of the present invention.

(1)第1の変形例
上述の実施形態では、制御部150は、図5に示すレイアウト1を用いた初期画面を操作表示部136に表示する例を説明したが、本発明を既存APに適用する場合、制御部150は、図5に示すレイアウト2を用いた初期画面を操作表示部136に表示してもよい。初期画面にレイアウト2を用いることで、操作表示部136は、既存APの画面操作用のインタフェースをレイアウト2の第3の表示領域に表示することができる。操作表示部136が既存APの画面操作用のインタフェースを初期画面に表示することで、ユーザは、初期画面で画面操作による入力が可能となる。なお、既存APの画面操作用のインタフェースが初期画面に表示されている場合でも、顧客操作型端末10は、音声入力による操作も可能な状態である。例えば、図20に示すように、操作表示部136は、第3の表示領域800に既存APのインタフェースを表示する。ユーザが第3の表示領域に表示されたボタンを押下すると、操作表示部136は、図21に示す次の画面に遷移する。
(1) First Modification In the above embodiment, the control unit 150 displays an initial screen using the layout 1 shown in FIG. 5 on the operation display unit 136, but the present invention is not limited to the existing AP. When applied, the control unit 150 may display an initial screen using the layout 2 shown in FIG. 5 on the operation display unit 136. By using the layout 2 in the initial screen, the operation display unit 136 can display an interface for operating the screen of the existing AP in the third display area of the layout 2. When the operation display unit 136 displays the interface for screen operation of the existing AP on the initial screen, the user can input by the screen operation on the initial screen. In addition, even when the interface for screen operation of the existing AP is displayed on the initial screen, the customer operation type terminal 10 is also in a state where the operation by voice input is also possible. For example, as shown in FIG. 20, the operation display unit 136 displays the interface of the existing AP in the third display area 800. When the user presses the button displayed in the third display area, the operation display unit 136 transitions to the next screen shown in FIG.

図21に示す次の画面でも、操作表示部136は、第3の表示領域804に既存APのインタフェースを表示する。初期画面から既存APのインタフェースでの画面操作を可能にすることで、既存APのインタフェースでの画面操作に慣れているユーザは、ストレスなく効率的に顧客操作型端末10を利用することができる。上述のように、制御部150は、初期画面で既存APのインタフェースによる画面操作を可能にすることで、操作表示部136の視認性を向上させることができる。   Also on the next screen shown in FIG. 21, the operation display unit 136 displays the interface of the existing AP in the third display area 804. By enabling screen operation with the interface of the existing AP from the initial screen, a user who is used to screen operation with the interface of the existing AP can use the customer operation type terminal 10 efficiently without stress. As described above, the control unit 150 can improve the visibility of the operation display unit 136 by enabling the screen operation by the interface of the existing AP on the initial screen.

(2)第2の変形例
上述の実施形態では、制御部150は、画面操作が可能な画面のレイアウトとして、図5に示すレイアウト2を操作表示部136に表示する例を説明したが、レイアウト2の画面操作が可能な箇所を明確にする表示をしてもよい。例えば、図22に示すように、制御部150は、詳細ボタンを押下可能であることを示す指のアイコン900を、詳細ボタンの近くに表示する。具体的に、制御部150は、ルート1の詳細ボタンにはアイコン900A、ルート2の詳細ボタンにはアイコン900B、ルート3の詳細ボタンにはアイコン900Cを表示する。上述のように、制御部150は、画面操作可能な箇所を明確にする表示を行うことで、操作表示部136の操作性を向上させることができる。
(2) Second Modified Example In the above-described embodiment, an example in which the control unit 150 displays the layout 2 shown in FIG. 5 on the operation display unit 136 as the layout of the screen capable of screen operation has been described. A display may be made to clarify the place where the screen operation of 2 is possible. For example, as shown in FIG. 22, the control unit 150 displays a finger icon 900 indicating that the detail button can be pressed near the detail button. Specifically, the control unit 150 displays the icon 900A on the detail button of the route 1, the icon 900B on the detail button of the route 2, and the icon 900C on the detail button of the route 3. As described above, the control unit 150 can improve the operability of the operation display unit 136 by performing the display for clarifying the portion where the screen can be operated.

なお、アイコン900の表示方法は特に限定されず、任意の方法により表示されてよい。例えば、制御部150は、レイアウト2の画面表示と同時にアイコン900を表示し、数秒間でアイコン900が消えるように設定してもよい。また、制御部150は、アイコン900にアニメーションによる動きをつけてもよい。ここで、アニメーションによる動きとは、例えば、点滅である。制御部150は、指のアイコン900を点滅させることによって、画面操作可能な箇所を、ユーザにとって分かりやすく明確に表示することができる。   Note that the display method of the icon 900 is not particularly limited, and may be displayed by any method. For example, the control unit 150 may display the icon 900 simultaneously with the screen display of the layout 2 and set the icon 900 to disappear in several seconds. Also, the control unit 150 may add motion to the icon 900 by animation. Here, the motion by animation is, for example, blinking. By blinking the finger icon 900, the control unit 150 can clearly display the portion where the screen can be operated in a way that is easy for the user to understand.

(3)第3の変形例
上述の実施形態では、制御部150は、ユーザが項目を選択すると画面を遷移させる例を説明したが、ユーザが選択した項目を強調表示してから画面を遷移させてもよい。例えば、図23の強調表示1に示すように、制御部150は、ユーザが選択した検索結果920を丸枠で囲むことで強調表示してもよい。また、例えば、図23の強調表示2に示すように、制御部150は、ユーザが選択した検索結果922以外の項目の色の明度を高くすることで、ユーザが選択した検索結果922を強調表示してもよい。また、例えば、図23の強調表示3に示すように、制御部150は、ユーザが選択した検索結果924を点滅させることで強調表示してもよい。上述のように、制御部150は、ユーザが選択した項目を強調表示することで、操作表示部136の視認性を向上させることができる。
(3) Third Modification In the above embodiment, the control unit 150 has described an example of transitioning the screen when the user selects an item. However, after highlighting the item selected by the user, the transition of the screen is performed. May be For example, as shown in Highlighted Display 1 of FIG. 23, the control unit 150 may highlight the search result 920 selected by the user by enclosing it in a circle. Also, for example, as shown in highlight 2 in FIG. 23, the control unit 150 highlights the search result 922 selected by the user by increasing the lightness of colors of items other than the search result 922 selected by the user. You may Also, for example, as shown in highlight 3 in FIG. 23, the control unit 150 may highlight the search result 924 selected by the user by blinking. As described above, the control unit 150 can improve the visibility of the operation display unit 136 by highlighting the item selected by the user.

(4)第4の変形例
上述の実施形態では、制御部150は、第2の表示領域に1つのユーザ画像と1つの吹き出しを表示する例を説明したが、顧客操作型端末10が複数のユーザを検知した場合、制御部150は、第2の表示領域に複数のユーザ画像と複数の吹き出しを表示してもよい。例えば、カメラ120とマイク128が2人のユーザを検知した場合、図24に示すように、1人目のユーザのユーザ画像930と吹き出し932、2人目のユーザのユーザ画像934と吹き出し938を表示してもよい。上述のように、制御部150は、顧客操作型端末10が検知したユーザの数だけユーザ画像と吹き出しを第2の表示領域に表示することで、操作表示部136の視認性を向上させることができる。
(4) Fourth Modification In the above-described embodiment, the control unit 150 has described the example in which one user image and one balloon are displayed in the second display area. When a user is detected, the control unit 150 may display a plurality of user images and a plurality of speech bubbles in the second display area. For example, when the camera 120 and the microphone 128 detect two users, as shown in FIG. 24, the user image 930 and the balloon 932 of the first user, the user image 934 of the second user and the balloon 938 are displayed. May be As described above, the control unit 150 can improve the visibility of the operation display unit 136 by displaying the user images and the balloon in the second display area by the number of users detected by the customer operation type terminal 10. it can.

(5)第5の変形例
上述の実施形態では、制御部150は、操作表示部136に画面を縦表示する例を説明したが、制御部150は、操作表示部136の向きに応じて、画面の向き、及び画面のレイアウトを変更してもよい。例えば、操作表示部136が縦向きの場合、制御部150は、上述の実施形態で説明した画面の向き、及び画面のレイアウトを操作表示部136に表示する。また、例えば、操作表示部136の向きが横向きの場合、制御部150は、図25に示すように、画面を横向きに表示する。また、制御部150は、画面の長手方向に沿って第1の表示領域940、第2の表示領域944、第3の表示領域942の順に各表示領域を操作表示部136に表示してもよい。上述のように、制御部150は、操作表示部136の向きに応じて画面を表示する向き、及び画面のレイアウトを変更することで、操作表示部136の視認性を向上させることができる。
(5) Fifth Modification In the above embodiment, the control unit 150 vertically displays the screen on the operation display unit 136. However, according to the direction of the operation display unit 136, the control unit 150 The orientation of the screen and the layout of the screen may be changed. For example, when the operation display unit 136 is in portrait orientation, the control unit 150 displays the orientation of the screen and the layout of the screen described in the above embodiment on the operation display unit 136. Also, for example, when the direction of the operation display unit 136 is horizontal, the control unit 150 displays the screen in the horizontal direction as shown in FIG. Further, the control unit 150 may display each display area on the operation display unit 136 in the order of the first display area 940, the second display area 944, and the third display area 942 along the longitudinal direction of the screen. . As described above, the control unit 150 can improve the visibility of the operation display unit 136 by changing the screen display direction and the screen layout according to the direction of the operation display unit 136.

(6)第6の変形例
上述の実施形態では、制御部150は、チケットを発券した後に、カメラ120がユーザを検知しなくなったら画面の表示を初期画面に戻す例を説明したが、制御部150は、チケットを発券した後に、チケットに関する情報を表示してもよい。例えば、制御部150は、発券したチケットの内容を画面に表示し、チケットの内容を読み上げて音声を出力することでチケットの内容をユーザに伝えて、ユーザがチケットの内容を確認できるようにする。チケットの内容を読み上げる際に、制御部150は、画面に表示されたチケットの内容の読み上げた箇所を赤字にすることで、読み上げられた箇所をユーザが分かるようにしてもよい。上述のように、制御部150は、発券したチケットの内容を表示することで、操作表示部136の視認性を向上させることができる。
(6) Sixth Modification In the above-described embodiment, the control unit 150 has described the example of returning the display of the screen to the initial screen when the camera 120 no longer detects the user after issuing the ticket. 150 may display information about the ticket after issuing the ticket. For example, the control unit 150 displays the contents of the issued ticket on the screen, reads out the contents of the ticket and outputs a voice to convey the contents of the ticket to the user so that the user can confirm the contents of the ticket. . When reading out the contents of the ticket, the control unit 150 may make the user understand the read out part by making the read out part of the contents of the ticket displayed on the screen into red. As described above, the control unit 150 can improve the visibility of the operation display unit 136 by displaying the contents of the issued ticket.

(7)第7の変形例
上述の実施形態では、制御部150は、チケットの発券処理中に、レイアウト3の第4の表示領域にサービス情報を表示する例を説明したが、制御部150は、ユーザがサービス情報を確認している場合、チケットの発券処理速度を遅くしてもよい。例えば、制御部150は、サービス情報の表示中にユーザが画面を操作したことを検知した場合、ユーザがサービス情報を確認していると認識し、チケットの発券処理速度を遅くする。制御部150がチケットの発券処理速度を遅くすることで、ユーザは、サービス情報を確認する時間を確保することができる。上述のように、制御部150は、チケットの発券処理速度を遅くすることで、操作表示部136の視認性を向上させることができる。
(7) Seventh Modification In the above-described embodiment, an example has been described in which the control unit 150 displays service information in the fourth display area of the layout 3 during ticket issue processing of a ticket. When the user confirms the service information, the ticket issue processing speed may be reduced. For example, when detecting that the user operates the screen while displaying the service information, the control unit 150 recognizes that the user is checking the service information, and slows the ticket issue processing speed. As the control unit 150 slows down the ticket issue processing speed, the user can secure a time for checking the service information. As described above, the control unit 150 can improve the visibility of the operation display unit 136 by decreasing the ticket issue processing speed.

また、制御部150は、ユーザがサービス情報を確認している場合、ユーザが確認している情報の内容に応じてAIが反応するようにしてもよい。例えば、制御部150は、ユーザがサービス情報として天気予報を確認している場合、AIに「天気が心配ですか?より詳細な天気予報を表示しますか?」と発話させてもよい。ユーザが天気予報の詳細を表示してほしい旨の反応をした場合、制御部150は、操作表示部136に天気予報の詳細を表示する。   In addition, when the user confirms the service information, the control unit 150 may cause the AI to react according to the content of the information confirmed by the user. For example, when the user confirms the weather forecast as the service information, the control unit 150 may cause the AI to utter, “Are you worried about the weather? Do you want to display a more detailed weather forecast?”. When the user responds that he wants the weather forecast details to be displayed, the control unit 150 displays the weather forecast details on the operation display unit 136.

(8)第8の変形例
上述の実施形態では、顧客操作型端末10における画面構成、動作例について説明したが、情報表示装置を用いる場合、制御部150は、画面に表示するサービス情報を時間経過に伴い変化させてもよい。また、制御部150は、レイアウト2を用いた初期画面の第3の表示領域に表示される既存APの操作用画面を時間経過に伴い変化させてもよい。例えば、制御部150は、図20に示す第3の表示領域800に表示される文字の大きさや、色を時間経過に伴い変化させることで、操作表示部136の視認性を向上させることができる。また、情報表示装置を用いる場合、制御部150は、ユーザが入力した操作内容に対応したバーコード情報を作成し、操作表示部136に表示してもよい。ユーザは、自身が所持する携帯型端末に当該バーコード情報(或いはバーコード情報を含む表示画面)を読み込ませることにより、情報表示装置で入力した操作内容を携帯型端末に取得させることができる。
(8) Eighth Modification In the above embodiment, the screen configuration and operation example of the customer operation type terminal 10 have been described. However, when using an information display device, the control unit 150 uses the time to display service information displayed on the screen. It may be changed with the passage of time. Further, the control unit 150 may change the operation screen of the existing AP displayed in the third display area of the initial screen using the layout 2 with the passage of time. For example, the control unit 150 can improve the visibility of the operation display unit 136 by changing the size and color of characters displayed in the third display area 800 shown in FIG. 20 with the passage of time. . When using the information display device, the control unit 150 may create bar code information corresponding to the operation content input by the user and may display the bar code information on the operation display unit 136. The user can cause the portable terminal to acquire the operation content input by the information display device by causing the portable terminal owned by the user to read the barcode information (or the display screen including the barcode information).

以上、本発明の実施形態に係る変形例について説明した。続いて、本発明の実施形態に係るハードウェア構成について説明する。   Hereinabove, the modification according to the embodiment of the present invention has been described. Subsequently, a hardware configuration according to an embodiment of the present invention will be described.

<8.ハードウェア構成>
上述したサービスの提供に関する情報処理は、ソフトウェアと、以下に説明する顧客操作型端末10のハードウェアとの協働により実現される。
<8. Hardware configuration>
The information processing relating to the provision of the above-described service is realized by the cooperation of software and hardware of the customer-operation type terminal 10 described below.

図26は、顧客操作型端末10のハードウェア構成例を示したブロック図である。顧客操作型端末10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)103と、RAM(Random Access Memory)105を備える。また、顧客操作型端末10は、入力部107と、表示部109と、出力部111と、ストレージ部113と、ネットワークインタフェース115とを備える。   FIG. 26 is a block diagram showing an example of the hardware configuration of the customer operation type terminal 10. As shown in FIG. The customer operation type terminal 10 includes a central processing unit (CPU) 101, a read only memory (ROM) 103, and a random access memory (RAM) 105. The customer operation type terminal 10 further includes an input unit 107, a display unit 109, an output unit 111, a storage unit 113, and a network interface 115.

CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って顧客操作型端末10内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM103は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM105は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。CPU101、ROM103およびRAM105は、ソフトウェアとの協働により図3を参照して説明した制御部150の機能を実現し得る。   The CPU 101 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the customer-operated terminal 10 according to various programs. Also, the CPU 101 may be a microprocessor. The ROM 103 stores programs used by the CPU 101, calculation parameters, and the like. The RAM 105 temporarily stores a program used in the execution of the CPU 101, parameters which appropriately change in the execution, and the like. These are mutually connected by a host bus configured of a CPU bus and the like. The CPU 101, the ROM 103, and the RAM 105 can realize the function of the control unit 150 described with reference to FIG. 3 in cooperation with software.

入力部107は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。顧客操作型端末10のユーザは、該入力部107を操作することにより、顧客操作型端末10に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input unit 107 generates an input signal based on an input by a user such as a mouse, a keyboard, a touch panel, a button, a microphone, a sensor, a switch, and a lever, and an input by the user. It comprises a control circuit and the like. The user of the customer operation type terminal 10 can input various data to the customer operation type terminal 10 and instruct processing operations by operating the input unit 107.

表示部109は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部111は、スピーカおよびヘッドホンなどの音声出力装置を含む。   The display unit 109 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, a projector device, an OLED (Organic Light Emitting Diode) device, and a lamp. Further, the output unit 111 includes an audio output device such as a speaker and headphones.

ストレージ部113は、データ格納用の装置である。ストレージ部113は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ部113は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ部113は、ストレージを駆動し、CPU101が実行するプログラムや各種データを格納する。   The storage unit 113 is a device for storing data. The storage unit 113 may include a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded in the storage medium. The storage unit 113 is configured of, for example, a hard disk drive (HDD) or a solid storage drive (SSD), a memory having an equivalent function, or the like. The storage unit 113 drives the storage and stores programs executed by the CPU 101 and various data.

ネットワークインタフェース115は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。かかる通信インタフェースは、例えば、Bluetooth(登録商標)またはZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi−Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースである。また、ネットワークインタフェース115は、有線による通信を行う有線通信装置であってもよい。   The network interface 115 is, for example, a communication interface configured of a communication device or the like for connecting to a network. Such a communication interface may be, for example, a short distance wireless communication interface such as Bluetooth (registered trademark) or ZigBee (registered trademark), a wireless local area network (LAN), Wi-Fi (registered trademark), or a mobile communication network (LTE, It is a communication interface such as 3G). The network interface 115 may also be a wired communication device that performs wired communication.

以上、図26を参照しながら、顧客操作型端末10のハードウェア構成例について説明した。   The example of the hardware configuration of the customer operation type terminal 10 has been described above with reference to FIG.

<9.むすび>
以上説明したように、本発明の実施形態によれば、顧客操作型端末10は、ユーザが発話により入力した音声情報を取得し、音声情報を変換したテキストデータに基づき、ユーザの発話に対する応答を決定することができる。また、顧客操作型端末10の操作表示部136は、AI画像とAIの発話内容を表示する第1の表示領域、ユーザの発話内容を表示する第2の表示領域、及び顧客操作型端末10がユーザに提供するサービスを表示する第3の表示領域で構成される画面を表示することができる。また、顧客操作型端末10の制御部150は、応答の内容に応じて、AIの発話内容をAI画像とサービスの間に配置し、ユーザの発話内容をユーザ画像とサービスの間に配置することができる。上述のように、顧客操作型端末10は、ユーザに必要な情報を画面の中央に寄せて表示することで、ユーザの視線の移動量を減らすことができ、画面の視認性を向上することが可能である。
<9. End>
As described above, according to the embodiment of the present invention, the customer operation type terminal 10 acquires voice information input by the user by speech, and based on text data converted from the speech information, responds to the user's speech It can be decided. In addition, the operation display unit 136 of the customer operation type terminal 10 includes a first display area for displaying the AI image and the utterance content of the AI, a second display area for displaying the utterance content of the user, and the customer operation type terminal 10 A screen configured of a third display area for displaying a service provided to the user can be displayed. In addition, the control unit 150 of the customer operation type terminal 10 arranges the utterance content of AI between the AI image and the service, and arranges the utterance content of the user between the user image and the service according to the content of the response. Can. As described above, the customer operation type terminal 10 can reduce the moving amount of the user's line of sight by displaying the information necessary for the user close to the center of the screen and improving the visibility of the screen. It is possible.

以上より、画面の視認性を向上することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することが可能である。   As described above, it is possible to provide a new and improved information processing apparatus, an information processing method, and a program capable of improving the visibility of a screen.

<10.補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<10. Supplement>
Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention belongs can conceive of various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also fall within the technical scope of the present invention.

なお、本明細書の顧客操作型端末10、及びWebAPサーバ30の処理における各ステップは、必ずしもシーケンス図に記載された順序に沿って時系列に処理する必要はない。例えば、顧客操作型端末10の処理における各ステップは、シーケンス図に記載した順序と異なる順序で処理されても、並列的に処理されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。   The steps in the processing of the customer-operation-type terminal 10 and the WebAP server 30 in the present specification do not necessarily have to be processed chronologically in the order described in the sequence diagram. For example, each step in the processing of the customer operation type terminal 10 may be processed in an order different from the order described in the sequence diagram, or may be processed in parallel. Also, additional processing steps may be employed and some processing steps may be omitted.

また、本明細書において説明した顧客操作型端末10、及びWebAPサーバ30は、単独の装置として実現されてもよく、一部または全部が別々の装置として実現されてもよい。例えば、図3に示した顧客操作型端末10、及び図4に示したWebAPサーバ30のように、機能を別々に備える単独の装置として実現されてもよい。また、例えば、図4に示したWebAPサーバ30の全ての機能を、顧客操作型端末10に備えさせ、顧客操作型端末10のみで実現してもよい。また、一部の機能はネットワーク等を介して接続されたサーバ等の装置に備えられてもよい。   Further, the customer operation type terminal 10 and the WebAP server 30 described in the present specification may be realized as a single device, or some or all may be realized as separate devices. For example, as a customer operation type terminal 10 shown in FIG. 3 and a WebAP server 30 shown in FIG. 4, it may be realized as a single device having functions separately. Further, for example, all functions of the WebAP server 30 illustrated in FIG. 4 may be provided in the customer operation type terminal 10, and may be realized only by the customer operation type terminal 10. Also, some of the functions may be provided in an apparatus such as a server connected via a network or the like.

また、顧客操作型端末10、及びWebAPサーバ30に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した顧客操作型端末10、及びWebAPサーバ30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, in order to cause hardware such as the CPU, ROM, and RAM incorporated in the customer operation type terminal 10 and the WebAP server 30 to exhibit functions equivalent to the respective configurations of the customer operation type terminal 10 and the WebAP server 30 described above. Computer programs can also be created. There is also provided a storage medium storing the computer program.

10 顧客操作型端末
30 WebAPサーバ
120 カメラ
124 スピーカ
128 マイク
132 通信部
136 操作表示部
140 決済媒体部
144 チケット発券部
150 制御部
154 カメラAP
158 画面AP
162 WebSocketサーバ
166 雑音除去モジュール
170 音声認識AP
302 通信部
304 業務WebAPサーバ
308 音声認識エンジン部
312 AI対話エンジン部
316 対話データ記憶部
320 発話音声エンジン部
DESCRIPTION OF SYMBOLS 10 Customer operation type terminal 30 WebAP server 120 Camera 124 Speaker 128 Microphone 132 Communication unit 136 Operation display unit 140 Payment medium unit 144 Ticket issue unit 150 Control unit 154 Camera AP
158 screen AP
162 WebSocket server 166 noise reduction module 170 speech recognition AP
302 communication unit 304 business WebAP server 308 speech recognition engine unit 312 AI dialogue engine unit 316 dialogue data storage unit 320 speech utterance engine unit

Claims (16)

ユーザが入力した音声情報を取得する音声情報取得部と、
前記音声情報をテキストデータに変換する変換部と、
前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、
前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、
を備える、情報処理装置。
A voice information acquisition unit that obtains voice information input by a user;
A converter for converting the voice information into text data;
A response unit that determines a response based on the text data and executes the response;
A first display area for displaying a dialog partner image showing the user's dialog partner and the dialog contents outputted by the dialog partner by the response; a second display area for displaying the text data; and the response The third display area for displaying the service to be displayed, the third display area being disposed between the first display area and the second display area, and the dialogue contents being the dialogue A control unit configured to control display processing according to the contents of the response so as to be disposed in text description on the side of the third display area with respect to the partner image;
An information processing apparatus comprising:
前記制御部は、前記第1の表示領域を前記第3の表示領域の上に配置し、前記第2の表示領域を前記第3の表示領域の下に配置する、請求項1に記載の情報処理装置。   The information according to claim 1, wherein the control unit arranges the first display area above the third display area, and arranges the second display area below the third display area. Processing unit. 前記情報処理装置は、前記ユーザを検知することが可能な検知装置と、
前記ユーザの画面操作により入力された画面操作情報を取得する画面操作情報取得部と、
をさらに備え、
前記制御部は、前記検知装置が前記ユーザを検知した際に、前記音声情報、及び前記画面操作情報を受け付け可能な状態で待機する、請求項1に記載の情報処理装置。
The information processing apparatus is capable of detecting the user;
A screen operation information acquisition unit that acquires screen operation information input by the user's screen operation;
And further
The information processing apparatus according to claim 1, wherein the control unit stands by in a state where the voice information and the screen operation information can be received when the detection apparatus detects the user.
前記応答部は、前記画面操作情報取得部が前記画面操作情報を取得した場合、前記画面操作情報に基づき、前記応答を決定し、前記応答を実行する、請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein, when the screen operation information acquisition unit acquires the screen operation information, the response unit determines the response based on the screen operation information and executes the response. 前記制御部は、前記第3の表示領域に、音声入力による選択、及び画面のタッチによる選択が可能なサービスを表示する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit displays, in the third display area, a service capable of selection by voice input and selection by touch of a screen. 前記制御部は、画面切り替え時に、前記第1の表示領域の大きさが変化する場合、前記対話相手画像の表示領域の大きさを、前記第1の表示領域の大きさに合わせて調整する、請求項1または2に記載の情報処理装置。   The control unit adjusts the size of the display area of the conversation partner image according to the size of the first display area when the size of the first display area changes at the time of screen switching. The information processing apparatus according to claim 1. 前記制御部は、前記第3の表示領域に表示する前記サービスがない場合、前記第3の表示領域を非表示にし、前記第2の表示領域より上の表示領域を前記第1の表示領域とする、請求項1または2に記載の情報処理装置。   The control unit hides the third display area when there is no service to be displayed in the third display area, and displays the display area above the second display area as the first display area. The information processing apparatus according to claim 1, wherein: 前記制御部は、前記対話内容、及び前記テキストデータを吹き出しの中に表示する、請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit displays the dialogue content and the text data in a balloon. 前記制御部は、前記ユーザを示すユーザ画像を前記第2の表示領域に表示し、前記テキストデータを前記ユーザ画像と前記第3の表示領域の間に表示する、請求項1または2に記載の情報処理装置。   The said control part displays the user image which shows the said user on a said 2nd display area, The said text data are displayed between the said user image and a said 3rd display area. Information processing device. 前記制御部は、前記ユーザとの対話が不要な処理を前記応答部が実行している場合、前記第2の表示領域と前記第3の表示領域を非表示にし、前記第1の表示領域より下の表示領域を第4の表示領域とする、請求項1または2に記載の情報処理装置。   The control unit hides the second display area and the third display area when the response unit is executing a process that does not require interaction with the user, and the control unit is configured to hide the second display area and the third display area. The information processing apparatus according to claim 1, wherein a lower display area is a fourth display area. 前記情報処理装置は、決済処理を制御する決済処理部と、
発券処理を制御する発券処理部と、
をさらに備え、
前記制御部は、前記決済処理部、または前記発券処理部が処理中である場合、前記第4の表示領域にサービス情報を表示する、請求項10に記載の情報処理装置。
The information processing apparatus is a payment processing unit that controls payment processing.
A ticketing processing unit that controls ticketing processing;
And further
The information processing apparatus according to claim 10, wherein the control unit displays service information in the fourth display area when the payment processing unit or the ticket issuance processing unit is processing.
前記制御部は、音声認識機能をオンまたはオフに切り替えが可能である、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit is capable of switching a voice recognition function on or off. 前記制御部は、音声認識機能がオンであり、前記第4の表示領域を表示中に前記ユーザが発話を行った場合、前記サービス情報を非表示にし、前記第2の表示領域を表示する、請求項11に記載の情報処理装置。   The control unit hides the service information and displays the second display area when the voice recognition function is on and the user speaks while the fourth display area is displayed. The information processing apparatus according to claim 11. 前記サービスは、座席予約サービスである、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the service is a seat reservation service. ユーザが入力した音声情報を取得することと、
前記音声情報をテキストデータに変換することと、
前記テキストデータに基づき、応答を決定し、前記応答を実行することと、
前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御することと、
を含む、プロセッサにより実行される、情報処理方法。
Obtaining voice information input by the user;
Converting the voice information into text data;
Determining a response based on the text data and executing the response;
A first display area for displaying a dialog partner image showing the user's dialog partner and the dialog contents outputted by the dialog partner by the response; a second display area for displaying the text data; and the response The third display area for displaying the service to be displayed, the third display area being disposed between the first display area and the second display area, and the dialogue contents being the dialogue Controlling the display processing according to the contents of the response so as to arrange in text description on the side of the third display area with respect to the other party image;
An information processing method to be executed by a processor, including:
コンピュータを、
ユーザが入力した音声情報を取得する音声情報取得部と、
前記音声情報をテキストデータに変換する変換部と、
前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、
前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、
として機能させるための、プログラム。
Computer,
A voice information acquisition unit that obtains voice information input by a user;
A converter for converting the voice information into text data;
A response unit that determines a response based on the text data and executes the response;
A first display area for displaying a dialog partner image showing the user's dialog partner and the dialog contents outputted by the dialog partner by the response; a second display area for displaying the text data; and the response The third display area for displaying the service to be displayed, the third display area being disposed between the first display area and the second display area, and the dialogue contents being the dialogue A control unit configured to control display processing according to the contents of the response so as to be disposed in text description on the side of the third display area with respect to the partner image;
A program to function as.
JP2017218278A 2017-11-13 2017-11-13 Information processing equipment, information processing methods, and programs Active JP7009940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017218278A JP7009940B2 (en) 2017-11-13 2017-11-13 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017218278A JP7009940B2 (en) 2017-11-13 2017-11-13 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019091151A true JP2019091151A (en) 2019-06-13
JP7009940B2 JP7009940B2 (en) 2022-01-26

Family

ID=66837421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017218278A Active JP7009940B2 (en) 2017-11-13 2017-11-13 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7009940B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033030A (en) * 2019-08-23 2021-03-01 沖電気工業株式会社 Voice processing device
CN114822554A (en) * 2022-04-28 2022-07-29 支付宝(杭州)信息技术有限公司 Interactive processing method and device based on voice

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072992A (en) * 2004-08-16 2006-03-16 Mitsubishi Electric Research Laboratories Inc Single common graphical user interface for network of home appliance, and home appliance network
JP2011209786A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
JP2015501022A (en) * 2011-09-30 2015-01-08 アップル インコーポレイテッド Automatic user interface adaptation for hands-free interaction
JP2015076038A (en) * 2013-10-11 2015-04-20 Necパーソナルコンピュータ株式会社 Information processing method, information processing apparatus, and program
JP2015512088A (en) * 2012-02-06 2015-04-23 ウリベ−エチェバリア ヒメネス、シャビエルURIBE−ETXEBARRIA JIMENEZ,Xabier System and method for integrating remote services
WO2017078792A1 (en) * 2015-11-06 2017-05-11 Apple Inc. Intelligent automated assistant in a messaging environment
JP2017091229A (en) * 2015-11-10 2017-05-25 日本信号株式会社 Automated ticket machine

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072992A (en) * 2004-08-16 2006-03-16 Mitsubishi Electric Research Laboratories Inc Single common graphical user interface for network of home appliance, and home appliance network
JP2011209786A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
JP2015501022A (en) * 2011-09-30 2015-01-08 アップル インコーポレイテッド Automatic user interface adaptation for hands-free interaction
JP2015512088A (en) * 2012-02-06 2015-04-23 ウリベ−エチェバリア ヒメネス、シャビエルURIBE−ETXEBARRIA JIMENEZ,Xabier System and method for integrating remote services
JP2015076038A (en) * 2013-10-11 2015-04-20 Necパーソナルコンピュータ株式会社 Information processing method, information processing apparatus, and program
WO2017078792A1 (en) * 2015-11-06 2017-05-11 Apple Inc. Intelligent automated assistant in a messaging environment
JP2017091229A (en) * 2015-11-10 2017-05-25 日本信号株式会社 Automated ticket machine

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033030A (en) * 2019-08-23 2021-03-01 沖電気工業株式会社 Voice processing device
CN114822554A (en) * 2022-04-28 2022-07-29 支付宝(杭州)信息技术有限公司 Interactive processing method and device based on voice
CN114822554B (en) * 2022-04-28 2022-11-22 支付宝(杭州)信息技术有限公司 Interactive processing method and device based on voice

Also Published As

Publication number Publication date
JP7009940B2 (en) 2022-01-26

Similar Documents

Publication Publication Date Title
KR101946364B1 (en) Mobile device for having at least one microphone sensor and method for controlling the same
JP2022043185A (en) Multi-participant live communication user interface
US10996838B2 (en) Automated teller device having accessibility configurations
JP6755556B2 (en) Information processing equipment, information processing methods and information processing programs
KR20140096573A (en) Method for controlling contents play and an electronic device thereof
JP7009940B2 (en) Information processing equipment, information processing methods, and programs
US20070097234A1 (en) Apparatus, method and program for providing information
WO2021036871A1 (en) Information input method, device, terminal, and storage medium
JP7210933B2 (en) Information processing device, information processing system, information processing method and program
JPWO2010021240A1 (en) Image display device
US20130321561A1 (en) Video Ticket Office
US9807276B2 (en) Image processing apparatus having a display device for displaying a trimming range selection screen, and image processing method
JP2011048426A (en) Cooking auxiliary terminal and program
JP3060379B2 (en) Information providing system, information providing processing method, and recording medium
CN109710344A (en) Data input guidance method, device, equipment and readable storage medium storing program for executing
JP7380561B2 (en) Information processing system, information processing method and storage medium
KR102427761B1 (en) Did device, did system, and control method for a did device
JP6279912B2 (en) Automatic transaction equipment and transaction support system
JP2008282324A (en) Order acceptance system
JP2000207469A (en) Restaurant information system
KR20140041204A (en) Bank service providing apparatus for a person who is visually impaired
US20260024528A1 (en) Wager table assembly and system
JP5440664B2 (en) Automatic transaction equipment
KR101562901B1 (en) System and method for supporing conversation
JP5131288B2 (en) Automatic transaction equipment

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

R150 Certificate of patent or registration of utility model

Ref document number: 7009940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150