JP2019091151A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2019091151A JP2019091151A JP2017218278A JP2017218278A JP2019091151A JP 2019091151 A JP2019091151 A JP 2019091151A JP 2017218278 A JP2017218278 A JP 2017218278A JP 2017218278 A JP2017218278 A JP 2017218278A JP 2019091151 A JP2019091151 A JP 2019091151A
- Authority
- JP
- Japan
- Prior art keywords
- display area
- user
- screen
- information
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 38
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000004044 response Effects 0.000 claims abstract description 81
- 238000012545 processing Methods 0.000 claims abstract description 71
- 230000003993 interaction Effects 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 65
- 238000004891 communication Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 230000004048 modification Effects 0.000 description 18
- 238000012986 modification Methods 0.000 description 18
- 230000002452 interceptive effect Effects 0.000 description 14
- 238000013500 data storage Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
近年、様々な場所に顧客操作型端末が設置されており、ユーザは顧客操作型端末を自身で操作することで多様なサービスを受けることができる。例えば、映画館に設置された顧客操作型端末は、ユーザが選択した映画の座席情報を表示し、決済処理を実行し、チケットを発券する。しかし、ユーザ自身が顧客操作型端末を操作する場合、顧客操作型端末が提供可能なサービスの多様化により、ユーザは、目的とするサービスの検索に時間を要してしまうという問題がある。検索に時間を要した上、目的とするサービスを見つけることができなかった場合、ユーザは、途中で操作をあきらめてしまうこともある。また、ユーザ自身が検索する手段の代替手段として、画面共有ソフトを用いてオペレータが遠隔操作を行う手段があるが、無人運用をできないという問題があった。そこで、対話形式により顧客操作型端末を操作可能な方法が開発されている。 In recent years, customer operation type terminals have been installed in various places, and a user can receive various services by operating the customer operation type terminals by himself. For example, a customer-operated terminal installed in a movie theater displays seating information of a movie selected by the user, executes settlement processing, and issues a ticket. However, when the user operates the customer operation type terminal, there is a problem that the user takes time to search for a target service due to diversification of services that can be provided by the customer operation type terminal. If it takes time to search and it is not possible to find the desired service, the user may give up on the way. Further, as an alternative means for the user to search, there is a means for the operator to perform remote control using screen sharing software, but there is a problem that the unmanned operation can not be performed. Therefore, a method capable of operating the customer operation type terminal in an interactive manner has been developed.
対話形式により顧客操作型端末を操作可能な方法として、例えば下記の特許文献1には、音声認識機能によりユーザの発話内容を認識し、ユーザの発話内容から取得した情報に基づき、所定の処理を実行する方法が開示されている。特許文献1の方法により、ユーザは、発話により目的を顧客操作型端末に伝えることで、顧客操作型端末を直接操作することなく、目的とするサービスを受けることが可能である。 As a method capable of operating a customer operation type terminal in an interactive manner, for example, Patent Document 1 below recognizes a user's uttered content by a voice recognition function, and performs predetermined processing based on information acquired from the user's uttered content. A method for performing is disclosed. According to the method of Patent Document 1, the user can receive the intended service without directly operating the customer operation type terminal by conveying the purpose to the customer operation type terminal by speech.
しかし、特許文献1の発明では、画面の視認性が悪いという問題があった。例えば、特許文献1に記載の画面レイアウトでは、アバター画像の右にアバターの発話内容をテキストで表示する吹き出しがあり、ユーザに提供するサービスを表示する領域がアバターの下に表示されている。上述のレイアウトでは、ユーザがアバターから提供された情報を視認する際に、ユーザの視線が吹き出しとサービス内容の間を移動する量が大きくなってしまう。 However, the invention of Patent Document 1 has a problem that the visibility of the screen is poor. For example, in the screen layout described in Patent Document 1, there is a speech balloon on the right of the avatar image that displays the speech content of the avatar as text, and an area for displaying a service provided to the user is displayed below the avatar. In the above-described layout, when the user views the information provided by the avatar, the amount of movement of the user's line of sight between the balloon and the service content increases.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画面の視認性を向上することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved information processing apparatus and information processing method capable of improving the visibility of a screen. And providing a program.
上記課題を解決するために、本発明のある観点によれば、ユーザが入力した音声情報を取得する音声情報取得部と、前記音声情報をテキストデータに変換する変換部と、前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、を備える、情報処理装置が提供される。 To solve the above problems, according to one aspect of the present invention, a voice information acquisition unit for obtaining voice information input by a user, a conversion unit for converting the voice information into text data, and the text data A response unit for determining a response and executing the response, an interactive partner image showing the interactive partner of the user, and a first display area for displaying interactive contents output by the interactive partner according to the response; And a second display area for displaying data and a third display area for displaying a service provided by the response, wherein the third display area is the first display area and the second display area. Control unit for controlling the display processing according to the contents of the response so as to be disposed between the display areas of the display unit and to arrange the interactive contents in the text representation on the third display area side with respect to the interactive partner image It comprises a information processing apparatus is provided.
前記制御部は、前記第1の表示領域を前記第3の表示領域の上に配置し、前記第2の表示領域を前記第3の表示領域の下に配置してもよい。 The control unit may arrange the first display area above the third display area, and arrange the second display area below the third display area.
前記情報処理装置は、前記ユーザを検知することが可能な検知装置と、前記ユーザの画面操作により入力された画面操作情報を取得する画面操作情報取得部と、をさらに備え、前記制御部は、前記検知装置が前記ユーザを検知した際に、前記音声情報、及び前記画面操作情報を受け付け可能な状態で待機してもよい。 The information processing apparatus further includes a detection device capable of detecting the user, and a screen operation information acquisition unit that acquires screen operation information input by a screen operation of the user, and the control unit When the detection device detects the user, it may stand by in a state in which the voice information and the screen operation information can be received.
前記応答部は、前記画面操作情報取得部が前記画面操作情報を取得した場合、前記画面操作情報に基づき、前記応答を決定し、前記応答を実行してもよい。 When the screen operation information acquisition unit acquires the screen operation information, the response unit may determine the response based on the screen operation information and execute the response.
前記制御部は、前記第3の表示領域に、音声入力による選択、及び画面のタッチによる選択が可能なサービスを表示してもよい。 The control unit may display, in the third display area, a service capable of selection by voice input and selection by touch of a screen.
前記制御部は、画面切り替え時に、前記第1の表示領域の大きさが変化する場合、前記対話相手画像の表示領域の大きさを、前記第1の表示領域の大きさに合わせて調整してもよい。 The control unit adjusts the size of the display area of the conversation partner image according to the size of the first display area when the size of the first display area changes at the time of screen switching. It is also good.
前記制御部は、前記第3の表示領域に表示する前記サービスがない場合、前記第3の表示領域を非表示にし、前記第2の表示領域より上の表示領域を前記第1の表示領域としてもよい。 When there is no service to be displayed in the third display area, the control unit hides the third display area, and sets a display area above the second display area as the first display area. It is also good.
前記制御部は、前記対話内容、及び前記テキストデータを吹き出しの中に表示してもよい。 The control unit may display the dialogue content and the text data in a balloon.
前記制御部は、前記ユーザを示すユーザ画像を前記第2の表示領域に表示し、前記テキストデータを前記ユーザ画像と前記第3の表示領域の間に表示してもよい。 The control unit may display a user image indicating the user in the second display area, and display the text data between the user image and the third display area.
前記制御部は、前記ユーザとの対話が不要な処理を前記応答部が実行している場合、前記第2の表示領域と前記第3の表示領域を非表示にし、前記第1の表示領域より下の表示領域を第4の表示領域としてもよい。 The control unit hides the second display area and the third display area when the response unit is executing a process that does not require interaction with the user, and the control unit is configured to hide the second display area and the third display area. The lower display area may be used as a fourth display area.
前記情報処理装置は、決済処理を制御する決済処理部と、発券処理を制御する発券処理部と、をさらに備え、前記制御部は、前記決済処理部、または前記発券処理部が処理中である場合、前記第4の表示領域にサービス情報を表示してもよい。 The information processing apparatus further includes a payment processing unit that controls payment processing, and a ticketing processing unit that controls ticketing processing, and the control unit is processing by the payment processing unit or the ticket processing unit. In the case, the service information may be displayed in the fourth display area.
前記制御部は、音声認識機能をオンまたはオフに切り替えが可能であってもよい。 The control unit may be capable of switching the speech recognition function on or off.
前記制御部は、音声認識機能がオンであり、前記第4の表示領域を表示中に前記ユーザが発話を行った場合、前記サービス情報を非表示にし、前記第2の表示領域を表示してもよい。 When the voice recognition function is on and the user speaks while displaying the fourth display area, the control unit hides the service information and displays the second display area. It is also good.
前記サービスは、座席予約サービスであってもよい。 The service may be a seat reservation service.
また、上記課題を解決するために、本発明の別の観点によれば、ユーザが入力した音声情報を取得することと、前記音声情報をテキストデータに変換することと、前記テキストデータに基づき、応答を決定し、前記応答を実行することと、前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御することと、を含む、プロセッサにより実行される、情報処理方法が提供される。 In order to solve the above problems, according to another aspect of the present invention, acquiring voice information inputted by a user, converting the voice information into text data, and based on the text data, Determining a response, executing the response, an interactive partner image showing the interactive partner of the user, and a first display area for displaying interactive contents output by the interactive partner according to the response; and the text data The third display area is a screen including the second display area to be displayed and the third display area to display the service provided by the response, wherein the third display area is the first display area and the second display. Controlling the display processing according to the contents of the response so as to be arranged between the areas and to arrange the dialogue contents in the text representation on the third display area side with respect to the dialogue partner image Executed by the processor, information processing method is provided.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、ユーザが入力した音声情報を取得する音声情報取得部と、前記音声情報をテキストデータに変換する変換部と、前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、として機能させるための、プログラムが提供される。 In order to solve the above problems, according to another aspect of the present invention, a computer, an audio information acquisition unit for acquiring audio information input by a user, a conversion unit for converting the audio information into text data, and A response unit that determines a response based on the text data and executes the response, a conversation partner image indicating the conversation partner of the user, and a first content of the dialog content displayed by the conversation partner according to the response The third display area is a screen comprising a display area, a second display area for displaying the text data, and a third display area for displaying a service provided by the response, wherein the third display area is the first display area. A table according to the contents of the response is disposed between the display area and the second display area, and the dialogue contents are arranged in the text representation on the third display area side with respect to the dialogue partner image. To function as a control section for controlling the process, the program is provided.
以上説明したように本発明によれば、画面の視認性を向上することを実現することが可能である。 As described above, according to the present invention, it is possible to realize improvement in the visibility of the screen.
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration will be assigned the same reference numerals and redundant description will be omitted.
また、本明細書および図面において、実質的に同一の機能構成または論理的意義を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成または論理的意義を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same functional configuration or logical meaning may be distinguished by appending different alphabets after the same symbol. However, when it is not necessary to distinguish each of a plurality of components having substantially the same functional configuration or logical meaning, each of the plurality of components is only given the same reference numeral.
<1.情報処理システムの概要>
本発明の実施形態は、ユーザに多様なサービスを提供するための情報処理システムに関する。以下では、チケットの発券サービスを例に、本発明の実施形態に係る情報処理システムについて説明する。なお、サービスはチケットの発券サービスに限定されず、任意のサービスが提供されてもよい。例えば、座席予約サービスが提供されてもよい。まず、図1を参照しながら、本発明の実施形態に係る情報処理システムの概要を説明する。
<1. Outline of information processing system>
Embodiments of the present invention relate to an information processing system for providing various services to users. Hereinafter, an information processing system according to an embodiment of the present invention will be described by taking a ticket issuing service of a ticket as an example. Note that the service is not limited to the ticket issue service, and any service may be provided. For example, a seat reservation service may be provided. First, an overview of an information processing system according to an embodiment of the present invention will be described with reference to FIG.
図1は、本発明の実施形態に係る情報処理システムの概要を示す説明図である。図1に示すように、顧客操作型端末10は、ネットワーク14を介してWebAP(AP:Application)サーバ30と接続されている。
FIG. 1 is an explanatory view showing an outline of an information processing system according to an embodiment of the present invention. As shown in FIG. 1, the customer
(1)顧客操作型端末10
顧客操作型端末10は、ユーザが入力した情報に基づき、チケットを発券するための情報処理装置である。図1に示す顧客操作型端末10は、ユーザが入力した情報に基づく応答を示すことができる。ここで、応答とは、ユーザの発話に対する次の会話内容、ユーザの要求に対して提供するサービス、及び画面に表示するデータ等である。ここで、発話とは、対話内容を音声で出入力すること、対話内容をテキスト表記で出力すること、対話内容を音声とテキスト表記で出入力することである。例えば、顧客操作型端末10は、ネットワーク14を介してユーザの入力情報をWebAPサーバ30へ送信し、WebAPサーバ30が決定した応答の内容をWebAPサーバ30から受信する。顧客操作型端末10は、WebAPサーバ30から受信した応答の内容に基づき、チケットの検索結果を画面に表示し、ユーザが選択したチケットの決済処理、及び発券処理を行う。
(1) Customer
The customer
また、顧客操作型端末10は、音声認識機能を備えており、ユーザの音声を認識することが可能であるため、ユーザは、発話による情報の入力が可能である。また、顧客操作型端末10は、ユーザの発話に対する次の会話文を音声で再生することができる。よって、ユーザは、顧客操作型端末10と対話により、顧客操作型端末10を操作することが可能である。なお、顧客操作型端末10の操作手段は、音声入力による操作に限定されない。例えば、ユーザは、画面操作による入力も可能である。
Further, since the customer
(2)WebAPサーバ30
WebAPサーバ30は、ユーザの入力情報に対する応答を決定する機能を有する。WebAPサーバ30は、人工知能(AI:Artificial Intelligence)を備えており、AIがユーザの入力情報を解析することで応答を決定する。例えば、WebAPサーバ30は、ネットワーク14を介して顧客操作型端末10からユーザの入力情報を受信し、AIがユーザの入力情報に基づき決定した応答の内容を顧客操作型端末10へ送信する。
(2)
The
以上、図1を参照しながら、本発明の実施形態に係る情報処理システムの概要を説明した。続いて、本発明の実施形態に係る顧客操作型端末10の構成例について説明する。
The outline of the information processing system according to the embodiment of the present invention has been described above with reference to FIG. Subsequently, a configuration example of the customer
<2.顧客操作型端末の構成例>
図2は、本発明の実施形態に係る顧客操作型端末10の外観構成例を示す説明図である。図3は、本発明の実施形態に係る顧客操作型端末10の機能構成例を示すブロック図である。なお、本発明の実施形態では、図2に示す顧客操作型端末10を利用する形態を例に説明するが、本発明に利用する端末は顧客操作型端末10に限定されず、任意の端末が利用されてもよい。例えば、スマートフォン、タブレット端末等の携帯型端末、タッチ式サイネージ用のディスプレイ等の情報表示装置にアプリケーションをインストールすることで本発明を実施してもよい。以下、図2、及び図3を参照しながら、本発明の実施形態に係る顧客操作型端末10の構成例について説明する。
<2. Example of configuration of customer operation type terminal>
FIG. 2 is an explanatory view showing an example of the appearance configuration of the customer
図2、及び図3に示したように、本発明の実施形態に係る顧客操作型端末10は、カメラ120、スピーカ124、マイク128、通信部132、操作表示部136、決済媒体部140、チケット発券部144、制御部150を備える。
As shown in FIGS. 2 and 3, the customer
(1)カメラ120
カメラ120は、人物を撮影する機能を有する検知装置の1つである。例えば、カメラ120は、顧客操作型端末10の前にいるユーザを撮影すると、ユーザを撮影した画像をカメラAP154へ送信する。なお、本発明の実施形態では、図2に示すように、操作表示部136の上に1台のカメラ120が設置されているが、カメラ120の台数、及び位置は特に限定されず、顧客操作型端末10は任意の台数のカメラ120を任意の位置に備えてもよい。
(1)
The
(2)スピーカ124
スピーカ124は、音声を再生する機能を有する。例えば、スピーカ124は、画面AP158が取得した音声ファイルを再生することで、ユーザの入力に対する応答を、発話としてユーザへ伝える。なお、本発明の実施形態では、図2に示すように、カメラ120の左右に1台ずつスピーカ124が設置されているが、スピーカ124の台数、及び位置は特に限定されず、顧客操作型端末10は任意の台数のスピーカ124を任意の位置に備えてもよい。なお、顧客操作型端末10は、Bluetooth(登録商標)といった近距離無線通信機能を搭載してもよい。顧客操作型端末10は、近距離無線通信機能を用いて、同無線通信機能を搭載したワイヤレスイヤホン等のユーザが所持する無線機器に、スピーカ124が再生する音声を送信してもよい。その際、ユーザは、自身の無線機器と顧客操作型端末10を接続するためのペアリング処理を予め行っておく。上述のように、ユーザが所持する機器が音声の取得、及び再生をすることで、例えば、ユーザは、騒音のある環境下においても応答に関する音声を認識することができる。
(2)
The
(3)マイク128
マイク128は、音声情報を取得する機能を有する検知装置の1つである。例えば、マイク128は、ユーザが発話した音声情報を取得し、取得した音声情報を雑音除去モジュール166へ出力する。また、顧客操作型端末10は、複数のマイク128を備えることで音声の到来方向を認識することが可能であり、音声の方向に基づき、発話しているユーザの人数を把握することが可能である。なお、本発明の実施形態では、図2に示すように、操作表示部136の左右に1台ずつマイク128が設置されているが、マイク128の台数、及び位置は特に限定されず、顧客操作型端末10は任意の台数のマイク128を任意の位置に備えてもよい。
(3)
The
(4)通信部132
通信部132は、ネットワーク14を介して、WebAPサーバ30と各種情報を通信する機能を有する。例えば、通信部132は、ネットワーク14を介して、顧客操作型端末10が操作表示部136を介して取得したユーザの入力情報をWebAPサーバ30へ送信する。また、通信部132は、ネットワーク14を介して、WebAPサーバ30が決定した応答の内容をWebAPサーバ30から受信する。
(4)
The
(5)操作表示部136
操作表示部136は、ユーザへの応答、及びユーザが操作入力可能な画面を表示する表示部としての機能を有する。また、操作表示部136は、ユーザが操作入力を行うための操作部としての機能を有する。例えば、表示部としての機能は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置により実現される。また、操作部としての機能は、例えばタッチパネルにより実現される。なお、図2において、顧客操作型端末10は、表示部および操作部の機能を一体化した構成としているが、表示部および操作部の機能を分離した構成としてもよい。
(5)
The
(6)決済媒体部140
決済媒体部140(決済処理部)は、チケット発券のための決済に利用される取引媒体が授受される開口部としての機能を有する。取引媒体としては、クレジットカードまたは現金が挙げられる。また、決済媒体部140は、取引媒体に応じた決済処理を行う機能を有する。例えば、取引媒体がクレジットカードである場合、決済媒体部140は、挿入されたクレジットカードに記録された情報を読み取る。また、取引媒体が現金である場合、決済媒体部140は、現金の搬送路、現金カセットおよび現金の正当性を鑑別する鑑別部などを有する。入金時に決済媒体部140に投入された現金は、搬送路を介して鑑別部へ搬送され、鑑別部により正常な鑑別結果が得られた場合、金種に応じた現金カセットに搬送される。また、出金時には、現金カセットから現金が繰り出され、鑑別部が繰り出された紙幣を鑑別し、正常な鑑別結果が得られた場合に決済媒体部140に現金が搬送される。なお、電子マネーおよび仮想通貨を取引媒体として利用可能であり、この場合、決済媒体部140は顧客操作型端末10に設けられなくてもよい。
(6)
The settlement medium unit 140 (settlement processing unit) has a function as an opening through which a transaction medium used for settlement for ticket issuance is delivered. Trade media include credit cards or cash. Further, the
(7)チケット発券部144
チケット発券部144(発券処理部)は、チケットを発券する機能をする。例えば、チケット発券部144は、ユーザが操作表示部136に表示されたチケットの検索結果から選択したチケットの情報を紙状媒体に印刷し、チケットの情報が印刷された紙状媒体であるチケットを排出する。なお、顧客操作型端末10は、チケット発券部144の他に、図示しないプリンタを備えてもよい。例えば、決済媒体部140で決済が完了した際に、当該プリンタは、決済に関する内容を紙上媒体に印刷して、レシートとして紙状媒体を排出してもよい。また、当該プリンタは、ユーザが操作入力した内容を紙上媒体に印刷して、紙上媒体を排出してもよい。例えば、提供されるサービスが座席予約サービスの場合、当該プリンタは、ユーザが操作入力した座席予約内容を紙上媒体に印刷して、紙状媒体を排出してもよい。なお、当該プリンタによる印刷処理は、制御部150の制御情報により、レシートに決済内容を印刷する処理と予約内容を印刷する処理を切り替えられてもよい。また、顧客操作型端末10は、レシート発行用のプリンタと予約内容印刷用のプリンタを分けて備えてもよい。
(7)
The ticket issue unit 144 (ticket issue processing unit) has a function of issuing a ticket. For example, the
(8)制御部150
制御部150は、顧客操作型端末10の動作全般を制御する機能を有する。例えば、制御部150は、カメラ120、スピーカ124、マイク128、通信部132、操作表示部136、決済媒体部140、チケット発券部144の制御を行う機能を有する。特に、本発明の実施形態に係る制御部150は、操作表示部136に表示される画面の表示処理を制御する機能を有する。なお、画面の表示処理の詳細については、<4.画面の表示例>にて説明する。
(8)
The
また、制御部150は、検知装置がユーザを検知すると、ユーザの音声情報、及びユーザの画面操作により入力された画面操作情報の両方を受け付け可能な状態で、顧客操作型端末10を待機させる機能を有する。顧客操作型端末10が音声情報、及び画面操作情報の両方を受け付け可能な状態であることにより、ユーザは、音声入力による操作、及び画面操作のどちらでも顧客操作型端末10を操作することが可能である。なお、本発明の実施形態に係る顧客操作型端末10は、初期画面表示後の最初の操作では音声入力による操作のみを受け付け可能な状態であるが、受け付け可能な操作は音声入力による操作に限定されず、任意の入力による操作のみを受け付け可能な状態であってもよい。また、初期画面表示後の最初の操作にて、顧客操作型端末10は、音声入力による操作以外に、別の手段での入力による操作を含む、複数の手段による操作を受け付け可能な状態であってもよい。
Further, the
上述の機能を実現するために、本発明の実施形態に係る制御部150は、カメラAP154、画面AP158、WebSocketサーバ162、雑音除去モジュール166、音声認識AP170を備える。
In order to realize the functions described above, the
(カメラAP154)
カメラAP154は、人物検知に関する処理を制御する機能を有する。例えば、カメラAP154は、カメラ120がユーザを撮影した画像をカメラ120から取得すると、取得した画像を解析し、ユーザを検知したか否かを判定する。ユーザを検知したと判定した場合、カメラAP154は、ユーザを検知した旨を画面AP158、及び音声認識AP170へ通知する。この時、カメラAP154は、検知したユーザの人数に関する情報も合わせて通知する。なお、カメラAP154は、撮影した画像から人物の特徴点を検出し、検出した特徴点に基づき画像内に含まれるユーザの人数を取得する。特徴点を検出する際に、カメラAP154は、図示しない記憶媒体にあらかじめ保存された人物モデルに含まれる特徴点を参照し、特徴点を検出する。ここで、人物モデルに含まれる特徴点とは、人物に共通して存在する特徴点である。また、制御部150は、カメラAP154が検知したユーザの人数に関する情報と、マイク128が取得する音声情報から把握可能な発話しているユーザの人数に基づき、顧客操作型端末10を使用しているユーザの人数を決定してもよい。例えば、カメラAP154で検知した人数が2人、マイク128で検知した人数が2人の場合、制御部150は、顧客操作型端末10を使用しているユーザの人数を2人と決定する。一方で、カメラAP154で検知した人数とマイク128で検知した人数が異なる場合、制御部150は、発話したユーザの人数に重みをつけてユーザの人数を決定してよい。例えば、カメラAP154で検知した人数が3人、マイク128で検知した人数が2人の場合、制御部150は、顧客操作型端末10を使用しているユーザの人数を2人と決定する。また、ユーザが無線機器と顧客操作型端末10を近距離無線通信機能によりペアリングしている場合、制御部150は、ペアリングされている無線機器の台数をユーザの人数としもよい。
(Camera AP154)
The
(画面AP158)
画面AP158は、画面に表示する情報を取得し、取得した情報を操作表示部136に表示させる機能を有する。例えば、画面AP158は、カメラ120がユーザを検知すると、初期画面として表示する画面のWebページURLをWebAPサーバ30の業務WebAPサーバ304から取得し、操作表示部136に初期画面を表示する。また、例えば、画面AP158は、音声認識AP170からユーザが入力した音声情報のテキストデータを取得すると、取得したテキストデータを操作表示部136に表示する。また、例えば、画面AP158は、応答の内容を業務WebAPサーバ304から取得すると、応答の内容に含まれる画面データURLが示す画面データ、及びテキストデータを操作表示部136に表示する。
(Screen AP158)
The
また、画面AP158は、音声認識に関する通知をする機能を有する。例えば、画面AP158は、操作表示部136に初期画面を表示した後、ユーザからの音声受信待ち状態である旨を、WebSocketサーバを介して音声認識AP170へ通知する。また、画面AP158は、音声認識に関する指示を行う機能も有する。例えば、画面AP158は、音声認識機能をONまたはOFFにすることを音声認識AP170に指示する。
Further, the
(WebSocketサーバ162)
WebSocketサーバ162は、端末内のAP間での情報の授受を仲介するサーバとしての機能を有する。例えば、WebSocketサーバ162は、画面AP158と音声認識AP170の間での情報の授受を仲介する。
(WebSocket server 162)
The
(雑音除去モジュール166)
雑音除去モジュール166は、音声情報から雑音を除去する機能を有する。例えば、雑音除去モジュール166は、マイク128より取得したユーザの音声情報から雑音を除去する。雑音除去処理後、雑音除去モジュール166は、音声情報を音声認識AP170へ出力する。
(De-noising module 166)
The
(音声認識AP170)
音声認識AP170は、WebAPサーバ30からユーザの音声情報に対応するテキストデータを取得する機能を有する。例えば、音声認識APは、雑音除去モジュール166から音声情報を受信すると、受信した音声情報をWebAPサーバ30の音声認識エンジン部308へ送信する。その後、音声認識AP170は、音声認識エンジン部308が変換したテキストデータを受信すると、WebSocketサーバ162を介して画面AP158へ受信したテキストデータを送信する。
(Voice recognition AP 170)
The
また、音声認識AP170は、音声認識機能のON/OFFを切り替える機能も有する。例えば、音声認識AP170は、画面AP158から音声認識機能をONにする旨の指示を受けた場合、音声認識機能をONにする。また、例えば、音声認識AP170は、画面AP158から音声認識機能をOFFにする旨の指示を受けた場合、音声認識機能をOFFにする。
Further, the
以上、図2、図3を参照しながら、本発明の実施形態に係る顧客操作型端末10の構成例について説明した。続いて、本発明の実施形態に係るWebAPサーバ30の構成例について説明する。
The configuration example of the customer
<3.WebAPサーバ30の構成例>
図4は、本発明の実施形態に係るWebAPサーバ30の機能構成例を示すブロック図である。図4に示したように、本発明の実施形態に係るWebAPサーバ30は、通信部302、業務WebAPサーバ304、音声認識エンジン部308、AI対話エンジン部312、対話データ記憶部316、発話音声エンジン部320を備える。
<3. Configuration Example of
FIG. 4 is a block diagram showing an example of a functional configuration of the
(1)通信部302
通信部302は、ネットワーク14を介して、顧客操作型端末10と各種情報を通信する機能を有する。例えば、通信部302は、ネットワーク14を介して、ユーザの入力情報を顧客操作型端末10から受信する。また、通信部302は、ネットワーク14を介して、WebAPサーバ30が決定した応答の内容を顧客操作型端末10へ送信する。
(1)
The
(2)業務WebAPサーバ304
業務WebAPサーバ304は、顧客操作型端末10から要求を受信すると、要求に対する応答を返す機能を有する。例えば、業務WebAPサーバ304は、顧客操作型端末10の画面AP158からWebページURLの要求を受信した場合、要求に対応するWebページURLを画面AP158へ送信する。
(2) Business
When the business
また業務WebAPサーバ304は、顧客操作型端末10からの要求を受け、WebAPサーバ30のAI対話エンジン部312、及び発話音声エンジン部320から要求に対する応答を取得し、顧客操作型端末10へ返す機能も有する。例えば、業務WebAPサーバ304は、画面AP158からテキストデータを受信した場合、テキストデータをAI対話エンジン部312へ送信し、テキストデータに対する次の会話文をAI対話エンジン部312から取得する。さらに、業務WebAPサーバ304は、次の会話文を発話音声エンジン部320へ送信し、次の会話文の音声ファイルを発話音声エンジン部320から取得し、取得した音声ファイルを画面AP158へ送信する。この時、業務WebAPサーバ304は、応答として返せる画面データがある場合、その画面データURLも画面AP158へ送信する。
In addition, the
(3)音声認識エンジン部308
音声認識エンジン部308は、音声情報をテキストデータに変換する機能を有する。例えば、音声認識エンジン部308は、顧客操作型端末10の音声認識AP170からユーザの音声情報を受信すると、音声情報をテキストデータに変換し、変換したテキストデータを音声認識AP170へ送信する。
(3) Speech
The speech
(4)AI対話エンジン部312
AI対話エンジン部312は、ユーザの音声情報のテキストデータを解析し、ユーザの発話に対する応答となる会話文(次の会話文)を取得する機能を有する。例えば、AI対話エンジン部312は、業務WebAPサーバ304からユーザの音声情報のテキストデータを受信すると、テキストデータを解析し、次の会話文を対話データ記憶部316から取得し、取得した会話文を業務WebAPサーバ304へ送信する。
(4) AI
The AI
(5)対話データ記憶部316
対話データ記憶部316は、次の会話文を記憶する機能を有する。例えば、対話データ記憶部316は、ユーザとの会話を想定して作成された会話文を、あらかじめ記憶しておく。また、対話データ記憶部316は、顧客操作型端末10がユーザとの会話を繰り返す中で、AIが学習して作成した会話文を記憶してもよい。
(5) Dialogue
The dialogue
(6)発話音声エンジン部320
発話音声エンジン部320は、発話音声を生成する機能を有する。例えば、発話音声エンジン部320は、業務WebAPサーバ304から次の会話文を受信すると、次の会話文を解析し、次の会話文の音声ファイルを生成し、生成した音声ファイルを業務WebAPサーバ304へ送信する。
(6) Utterance
The speech
以上、図4を参照しながら、本発明の実施形態に係るWebAPサーバ30の機能構成例について説明した。続いて、本発明の実施形態に係る画面の表示例について説明する。
Heretofore, a functional configuration example of the
<4.画面の表示例>
以下では、本実施形態に係る操作表示部136に表示される画面の表示例について説明する。まず、画面のレイアウトの構成例について説明する。
<4. Screen display example>
Hereinafter, a display example of the screen displayed on the
[4−1.画面のレイアウトの構成例]
図5は、本発明の実施形態に係る画面のレイアウトの構成例を示す説明図である。図5に示すように、本発明の実施形態に係る操作表示部136に表示される画面のレイアウトには、レイアウト1、レイアウト2、及びレイアウト3の3種類のレイアウトがある。なお、レイアウトの種類は3種類に限定されず、任意の数のレイアウトが用意されてもよい。
[4-1. Configuration example of screen layout]
FIG. 5 is an explanatory view showing a configuration example of a screen layout according to the embodiment of the present invention. As shown in FIG. 5, the layout of the screen displayed on the
各レイアウトは、第1の表示領域、第2の表示領域、第3の表示領域、及び第4の表示領域のいずれかの組み合わせで構成されている。第1の表示領域は、ユーザの対話相手であるAIを示すAI画像(対話相手画像)と、AIの発話内容を表示する領域である。第2の表示領域は、ユーザを示す画像と、ユーザの発話内容を表示する領域である。第3の表示領域は、サービスを表示する領域である。第3の表示領域に表示されるサービスは、音声入力による選択、及び画面のタッチによる選択が可能なサービスである。第4の表示領域は、処理に関する処理情報、及びサービス情報等を表示する領域である。なお、各表示領域の詳細な構成については後述する。 Each layout is configured by any combination of a first display area, a second display area, a third display area, and a fourth display area. The first display area is an area for displaying an AI image (an interactive partner image) indicating an AI as an interactive partner of the user and an utterance content of the AI. The second display area is an area for displaying an image indicating the user and the content of the user's speech. The third display area is an area for displaying a service. The service displayed in the third display area is a service that can be selected by voice input and can be selected by touching the screen. The fourth display area is an area for displaying process information related to the process, service information, and the like. The detailed configuration of each display area will be described later.
レイアウト1は、第1の表示領域404、及び第2の表示領域408の組み合わせにより構成されている。レイアウト1は、ユーザとAIが対話を行う画面のレイアウトに用いられる。例えば、レイアウト1は、初期画面のレイアウトに用いられる。また、第3の表示領域に表示するサービスがない場合にも用いられる。
The layout 1 is configured by a combination of a
レイアウト2は、第1の表示領域504、及び第2の表示領域508、及び第3の表示領域512の組み合わせにより構成されている。レイアウト2は、サービスを表示する画面のレイアウトに用いられる。例えば、レイアウト2は、ユーザの発話に基づき、AIが検索したサービスを表示する画面のレイアウトに用いられる。
The layout 2 is configured by a combination of a
レイアウト3は、第1の表示領域604、及び第4の表示領域608の組み合わせにより構成されている。レイアウト3は、ユーザとの対話が生じない画面のレイアウトに用いられる。例えば、レイアウト3は、決済処理中、またはチケット発券処理中等の画面のレイアウトに用いられる。
The layout 3 is configured by a combination of a
なお、第1の表示領域は各レイアウトで用いられているが、レイアウト1で用いられる場合と、レイアウト2、及びレイアウト3で用いられる場合で、第1の表示領域を表示する大きさが異なる。例えば、第1の表示領域は、レイアウト2、及びレイアウト3で用いられる場合、レイアウト1で用いられる場合よりも小さく表示される。その際に、操作表示部136は、第1の表示領域に表示されるAI画像も小さく表示する。
Although the first display area is used in each layout, the size in which the first display area is displayed is different between the case of being used in layout 1 and the case of being used in layout 2 and layout 3. For example, when used in layout 2 and layout 3, the first display area is displayed smaller than that used in layout 1. At this time, the
また、操作表示部136は、AI画像を小さく表示する時にAI画像の丸枠を小さくするが、操作表示部136が丸枠内のAIを示す人物等の画像も小さくするか否かは、特に限定されない。例えば、操作表示部136は、図6のレイアウト2Aに示すように、レイアウト1のAI画像702の丸枠、及び人物の画像を小さくして、AI画像704のように表示してもよい。また、例えば、操作表示部136は、図6レイアウト2Bに示すように、レイアウト1のAI画像702の丸枠のみを小さくして、人物の画像は等倍のまま、AI画像706のように表示してもよい。
In addition, the
また、各レイアウトを構成する各表示領域の組み合わせは、上述した組み合わせに限定されず、任意の組み合わせが用いられてもよい。 Moreover, the combination of each display area which comprises each layout is not limited to the combination mentioned above, Arbitrary combinations may be used.
以上、図5、及び図6を参照しながら、本発明の実施形態に係る画面のレイアウトの構成例について説明した。続いて、レイアウト1を用いた画面について説明する。 In the above, the configuration example of the screen layout according to the embodiment of the present invention has been described with reference to FIGS. 5 and 6. Subsequently, a screen using layout 1 will be described.
[4−2.レイアウト1を用いた画面]
以下では、レイアウト1を用いた画面の構成例、及び表示例について説明する。レイアウト1は、ユーザとAIが対話を行う画面のレイアウトに用いられる。レイアウト1は、AIの発話内容を表示する吹き出しをAI画像の下に、ユーザの発話内容を表示する吹き出しをユーザ画像の上に配置することで、対話内容を示す情報が画面の中央に表示されるようにしている。よって、ユーザは、対話内容を視認する際の視線の移動量を小さくすることができる。
[4-2. Screen using layout 1]
Hereinafter, a configuration example of a screen using layout 1 and a display example will be described. The layout 1 is used for the layout of the screen where the user and the AI interact. The layout 1 arranges a balloon for displaying the uttered content of AI below the AI image and a balloon for displaying the uttered content of the user above the user image, whereby information indicating the content of the dialogue is displayed at the center of the screen. I am trying to Therefore, the user can reduce the movement amount of the line of sight when viewing the contents of the dialogue.
[4−2−1.レイアウト1を用いた画面の構成例]
以下では、レイアウト1を用いた画面の構成例について説明する。図7は、レイアウト1を用いた画面を操作表示部136に表示した例を示す図である。図7に示すように、操作表示部136に表示された画面には、第1の表示領域404、及び第2の表示領域408で構成されるレイアウト1が用いられ、第2の表示領域は、第1の表示領域の下に配置されている。第1の表示領域404は、AI画像412、及び吹き出し416で構成されている。AI画像412には、AI画像が表示され、吹き出し416には、AIが発話した内容が表示されている。また、第2の表示領域408は、ユーザ画像420、及び吹き出し424で構成されている。ユーザ画像420には、ユーザ画像が表示され、吹き出し424には、ユーザが発話した内容が表示されている。なお、各吹き出しの中には、テキストデータに変換された発話内容がテキスト表記される。以下、他のレイアウトで用いられる吹き出しの中も同様に、テキストデータに変換された発話内容がテキスト表記される。
[4-2-1. Configuration Example of Screen Using Layout 1]
Below, the structural example of the screen using the layout 1 is demonstrated. FIG. 7 is a diagram showing an example in which a screen using layout 1 is displayed on the
[4−2−2.レイアウト1を用いた画面の表示例]
以下では、レイアウト1を用いた画面の表示例について説明する。例えば、図7に示す操作表示部136は、顧客操作型端末10がユーザを検知した際の初期画面を表示している。初期画面表示後、例えば、AIは、「いらっしゃいませ。お伺いします。こちらでは、列車の乗換方法および観光地をご案内致します。目的地から検索、ジャンルから検索、お勧めプランのご提案の3種類からご案内できます。」と発話する。AIが発話した内容は、吹き出し416に表示される。AIの発話に対して、ユーザが「目的地から検索したい。」と発話すると、ユーザが発話した内容は、吹き出し424に表示される。
4-2-2. Display example of screen using layout 1]
Below, the example of a display of the screen using layout 1 is explained. For example, the
図8には、図7に示したAIとユーザの対話の続きが示されている。図7に示したユーザの「目的地から検索したい。」という発話をAIが認識すると、AIは、「目的地から検索ですね。どちらまで行かれますか?」と発話し、図8に示す吹き出し416に発話した内容が表示される。さらに、AIの発話に対して、ユーザが「AAA駅まで行きたい。」と発話すると、発話した内容は吹き出し424に表示される。
FIG. 8 shows the continuation of the interaction between the AI and the user shown in FIG. When the AI recognizes the utterance “I want to search from the destination” shown in FIG. 7, the AI utters “I am searching from the destination. The uttered content is displayed on the
以上、図7、及び図8を参照しながら、本発明の実施形態に係るレイアウト1を用いた画面について説明した。続いて、レイアウト2を用いた画面について説明する。 Hereinabove, the screen using the layout 1 according to the embodiment of the present invention has been described with reference to FIGS. 7 and 8. Subsequently, the screen using the layout 2 will be described.
[4−3.レイアウト2を用いた画面]
以下では、レイアウト2を用いた画面の構成例、及び表示例について説明する。レイアウト2は、ユーザの発話に基づき、AIが検索したサービスを表示する画面のレイアウトに用いられる。レイアウト2は、AIの発話内容を表示する吹き出しをAI画像の下に、ユーザの発話内容を表示する吹き出しをユーザ画像の上に配置し、さらに、サービスをAIの吹き出しとユーザの吹き出しの間に配置し、サービスと対話内容を示す情報が画面の中央に表示されるようにしている。よって、ユーザは、サービスの操作画面を操作する際に、操作画面から視線をあまり移動することなく、対話内容を視認することができる。また、ユーザは、サービス情報の上にAI画像とAIの吹き出しが表示され、サービスの下にユーザの画像と吹き出しが表示されることで、AIとテーブルを挟んで対話しているように感じることができ、より自然に対話をしている感覚を得ることができる。
[4-3. Screen using layout 2]
Hereinafter, a configuration example and a display example of a screen using the layout 2 will be described. The layout 2 is used for the layout of the screen displaying the service searched by the AI based on the user's speech. Layout 2 arranges a speech balloon displaying AI's speech content below the AI image and a speech balloon displaying the user's speech content above the user image, and further, places the service between the AI speech balloon and the user's speech balloon It arranges, and the information showing the service and the contents of dialogue is displayed in the center of the screen. Therefore, when the user operates the operation screen of the service, the user can visually recognize the contents of the dialog without much moving the line of sight from the operation screen. In addition, the user feels that the AI image and the balloon are displayed above the service information, and the user's image and the balloon are displayed below the service, so that the user feels that the user interacts with the AI across the table. And you can get a sense of interacting more naturally.
[4−3−1.レイアウト2を用いた画面の構成例]
以下では、レイアウト2を用いた画面の構成例について説明する。図9は、レイアウト2を用いた画面を操作表示部136に表示した例を示す図である。図9に示すように、操作表示部136に表示された画面には、第1の表示領域504、第2の表示領域508、及び第3の表示領域512で構成されるレイアウト2が用いられている。また、第3の表示領域は第1の表示領域と第2の表示領域の間に配置され、第1の表示領域は、第3の表示領域より上に配置され、第2の表示領域は、第3の表示領域より下に配置される。第1の表示領域504は、AI画像516、及び吹き出し520で構成されている。AI画像516には、AI画像が表示され、吹き出し520には、AIが発話した内容が表示されている。また、第2の表示領域508は、ユーザ画像524、及び吹き出し528で構成されている。ユーザ画像524には、ユーザ画像が表示され、吹き出し528には、ユーザが発話した内容が表示されている。
[4-3-1. Example of Screen Configuration Using Layout 2]
Below, the structural example of the screen using the layout 2 is demonstrated. FIG. 9 is a diagram showing an example in which a screen using layout 2 is displayed on the
また、第3の表示領域512は、検索結果532、及び詳細ボタン536で構成されている。検索結果532には、画面データURLにアクセスして得られる画面データが検索結果として表示される。検索結果が複数ある場合、第3の表示領域512は、図9に示す検索結果532A、検索結果532B、検索結果532Cのように、複数の検索結果を表示してよい。詳細ボタン536は、検索結果532の詳細を表示するためのボタンである。図9に示すように、1つの検索結果532に対して1つの詳細ボタン536が表示される。例えば、ユーザが詳細ボタン536Aを押下すると、操作表示部136の画面は、検索結果532Aの詳細を表示する画面に遷移する。また、例えば、ユーザが詳細ボタン536Bを押下すると、操作表示部136の画面は、検索結果532Bの詳細を表示する画面に遷移する。また、例えば、ユーザが「ルート3の詳細を表示してください。」と発話し、AIがユーザの発話を認識すると、操作表示部136の画面は、検索結果532Cの詳細を表示する画面に遷移する。なお、ユーザが発話した内容は、吹き出し528に表示される。
In addition, the
[4−3−2.レイアウト2を用いた画面の表示例]
以下では、レイアウト2を用いた画面の表示例について説明する。例えば、図9に示す操作表示部136は、図8のユーザの発話に基づき顧客操作型端末10が検索した結果を表示している。検索結果表示後、例えば、AIは、「AAA駅までですね。以下の3つのルートで行けます。」と発話する。AIが発話した内容は、吹き出し520に表示される。AIの発話に対して、ユーザが「ルート1でお願いします。」と発話すると、ユーザが発話した内容は、吹き出し528に表示される。AIがユーザの「ルート1でお願いします。」という発話を認識すると、操作表示部136は、検索結果の詳細画面を表示する。なお、操作表示部136は、ユーザが詳細ボタン536を押下しても検索結果の詳細画面を表示することが可能である。
[4-3-2. Display example of screen using layout 2]
Below, the example of a display of the screen using layout 2 is explained. For example, the
図10には、図9に示したAIとユーザの対話の続きが示されている。図9に示したユーザの「ルート1でお願いします。」という発話をAIが認識すると、AIは、「ルート1ですね。このルートのチケットを購入できます。」と発話し、図10に示す吹き出し520に発話した内容が表示される。また、操作表示部136は、ユーザが選択したルート1の詳細を検索結果詳細540に表示する。さらに、AIの発話に対して、ユーザが「購入します。」と発話すると、発話した内容は吹き出し528に表示される。AIがユーザの「購入します。」という発話を認識すると、操作表示部136は、チケットの決済処理を行う画面を表示する。なお、操作表示部136は、ユーザが第3の表示領域内の購入ボタンを押下してもチケットの決済処理を行う画面を表示することが可能である。
FIG. 10 shows the continuation of the interaction between the AI and the user shown in FIG. When the AI recognizes the utterance "Please make me a request at route 1" shown in FIG. 9, the AI utters, "You are able to buy a ticket for this route. You can buy a ticket for this route." The uttered content is displayed on a
以上、図9、及び図10を参照しながら、本発明の実施形態に係るレイアウト2を用いた画面について説明した。続いて、レイアウト3を用いた画面について説明する。 The screen using the layout 2 according to the embodiment of the present invention has been described above with reference to FIGS. 9 and 10. Subsequently, a screen using the layout 3 will be described.
[4−4.レイアウト3を用いた画面]
以下では、レイアウト3を用いた画面の構成例、及び表示例について説明する。レイアウト3は、ユーザとの対話が生じない決済処理中、またはチケット発券処理中等の画面のレイアウトに用いられる。レイアウト3は、天気予報等のサービス情報を表示することができる。よって、ユーザは、決済処理、または発券処理が完了するまでの時間を退屈することなく過ごすことができる。
[4-4. Screen using layout 3]
Hereinafter, a configuration example of a screen using the layout 3 and a display example will be described. The layout 3 is used for layout of a screen during settlement processing in which no dialog with the user occurs, or in ticket ticket processing. The layout 3 can display service information such as a weather forecast. Thus, the user can spend time without payment processing or ticket processing being completed.
[4−4−1.レイアウト3を用いた画面の構成例]
以下では、レイアウト3を用いた画面の構成例について説明する。図11は、レイアウト3を用いた画面を操作表示部136に表示した例を示す図である。図11に示すように、操作表示部136に表示された画面には、第1の表示領域604、及び第4の表示領域608で構成されるレイアウト3が用いられ、第4の表示領域は、第1の表示領域の下に配置されている。第1の表示領域604は、AI画像612、及び吹き出し616で構成されている。AI画像612には、AI画像が表示され、吹き出し616には、AIが発話した内容が表示されている。また、第4の表示領域608は、処理情報620、及び処理情報624で構成されている。処理情報620には、決済処理に関する画像として、現金の投入に関する画像が表示され、処理情報624には、カードの挿入に関する画像が表示されている。なお、処理情報として表示する画像は、現金の投入、及びカードの挿入に関する画像に限定されず、任意の画像が表示されてもよい。また、処理情報には、アニメーション画像が表示されてもよい。また、図11では、第4の表示領域に2つの処理情報を表示しているが、第4の表示領域に表示する処理情報の数は限定されず、任意の数の処理情報が表示されてよい。
[4-4-1. Configuration Example of Screen Using Layout 3]
Below, the structural example of the screen using the layout 3 is demonstrated. FIG. 11 is a diagram showing an example in which a screen using layout 3 is displayed on the
例えば、図11に示す操作表示部136は、図10のユーザの発話に基づき顧客操作型端末10が決済処理を行うための画面を表示している。決済処理画面表示後、例えば、AIは、「現金またはカードをお入れください。」と発話する。AIが発話した内容は、吹き出し616に表示される。AIの発話に対して、ユーザが決済媒体部140に現金またはカードを入れると、AIは決済処理を実行する。決済処理が完了すると、顧客操作型端末10はチケットを発券する処理を実行する。
For example, the
[4−4−2.レイアウト3を用いた画面の表示例]
以下では、レイアウト3を用いた画面の表示例について説明する。例えば、図12に示す操作表示部136は、決済処理後にチケットの発券処理を実行中であることを示すための画面を表示している。チケット発券処理画面表示後、例えば、AIは、「発券しています。」と発話する。AIが発話した内容は、吹き出し616に表示される。また、処理情報628は、「発券中です。しばらくお待ちください。」と発券中である旨を大きくテキスト表示する。また、処理情報632は、ユーザがチケットの発券を待っている間に退屈しないように、天気予報等のサービス情報を表示する。チケットの発券処理が完了すると、操作表示部136は、チケット、おつり、及びカードの取り忘れを注意する画面を表示する。
[4-4-2. Display example of screen using layout 3]
Below, the example of a display of the screen using layout 3 is explained. For example, the
例えば、図13に示す操作表示部136は、チケット、おつり、及びカードの取り忘れを注意する画面を表示している。注意画面表示後、例えば、AIは、「チケットを受け取りください。おつりまたはカードのお取り忘れにご注意ください。」と発話する。AIが発話した内容は、吹き出し616に表示される。また、処理情報636は、チケットの受け取りを示す画像を表示する。また、処理情報640は、おつり、またはカードの受け取りを示す画像を表示する。ユーザがチケットを受け取ると、操作表示部136は、初期画面を表示する。
For example, the
以上、図11〜図13を参照しながら、本発明の実施形態に係るレイアウト3を用いた画面について説明した。続いて、本発明の実施形態に係る動作例について説明する。 In the above, the screen using the layout 3 according to the embodiment of the present invention has been described with reference to FIGS. Subsequently, an operation example according to the embodiment of the present invention will be described.
<5.動作例>
以下では、本発明の実施形態に係る顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。まず、ユーザ検知時の動作例について説明する。
<5. Operation example>
Below, the operation example of the customer
[5−1.ユーザ検知時の動作例]
以下では、図14、及び図15を参照しながら、ユーザ検知時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。図14は、ユーザ検知時の顧客操作型端末10の動作例を示すシーケンス図である。また、図15は、ユーザ検知時のWebAPサーバ30の動作例を示すシーケンス図である。
[5-1. Operation example at the time of user detection]
Hereinafter, an operation example of the customer
まず、図14に示すように、顧客操作型端末10のカメラAP154は、人物を検知すると、人物を検知した旨を音声認識AP170へ通知する(ステップS1000)。音声認識AP170は、カメラAPから人物を検知した旨の通知を受けると、WebSocketサーバ162に接続し、ユーザからの音声入力を受け付け可能な状態で待機する(ステップS1004)。また、画面AP158は、WebAPサーバ30からWebページURLを取得し、Webページを初期画面として表示する(ステップS1008)。
First, as shown in FIG. 14, when detecting a person, the
ここで、図15を参照しながらステップS1008の詳細を説明する。図15に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の業務WebAPサーバ304にWebページURLを要求する(ステップS1010)。要求を受信した業務WebAPサーバ304は、WebページURLを画面AP158へ送信する(ステップS1012)。WebページURLを受信した画面AP158は、WebページURLにアクセスし、Webページを初期画面として表示する(ステップS1014)。
Here, the details of step S1008 will be described with reference to FIG. As shown in FIG. 15, the
初期画面表示後、図14に示すように、画面AP158は、WebSocketサーバ162に接続し、ユーザからの画面操作入力を受け付け可能な状態で待機する(ステップS1018)。また、画面AP158は、音声受信待ち状態である旨を音声認識AP170へWebSocketサーバ162を介して通知する(ステップS1022、ステップS1026)。通知を受けた音声認識AP170は、音声受信待ち状態である旨をWebAPサーバ30へ通知する(ステップS1030)。
After the initial screen is displayed, as shown in FIG. 14, the
ここで、図15を参照しながらステップS1030の詳細を説明する。図15に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の音声認識エンジン部308に音声認識を開始する旨を通知する(ステップS1032)。通知を受けた音声認識エンジン部308は、音声を受け付け可能な状態で待機する。
Here, the details of step S1030 will be described with reference to FIG. As shown in FIG. 15, the
以上、図14、及び図15を参照しながら、ユーザ検知時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明した。続いて、音声情報取得時の動作例について説明する。
In the above, the operation example of the customer
[5−2.音声情報取得時の動作例]
以下では、図16、及び図17を参照しながら、音声情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。顧客操作型端末10は、マイク128がユーザの音声情報を取得すると、取得した音声情報に基づき応答を決定し、決定した応答を実行する。図16は、音声情報取得時の顧客操作型端末10の動作例を示すシーケンス図である。また、図17は、音声情報取得時のWebAPサーバ30の動作例を示すシーケンス図である。
5-2. Example of operation when acquiring voice information]
Hereinafter, an operation example of the customer
まず、図16に示すように、顧客操作型端末10のマイク128は、ユーザの発話による音声情報を取得すると(ステップS1100)、取得した音声を雑音除去モジュール166へ出力する(ステップS1104)。音声を取得した雑音除去モジュール166は、音声から雑音を除去する処理を行い(ステップS1106)、雑音を除去した音声を音声認識AP170へ出力する(ステップS1108)。音声を取得した音声認識AP170は、音声をWebAPサーバ30へ送信し、WebAPサーバ30から音声のテキストデータを受信する(ステップS1112)。
First, as shown in FIG. 16, when the
ここで、図17を参照しながらステップS1112の詳細を説明する。図17に示すように、顧客操作型端末10の音声認識AP170は、WebAPサーバ30の音声認識エンジン部308に音声を送信する(ステップS1114)。音声を受信した音声認識エンジン部308は、音声をテキストデータに変換する処理を行い(ステップS1116)、変換されたテキストデータを音声認識AP170へ送信する(ステップS1118)。
Here, the details of step S1112 will be described with reference to FIG. As shown in FIG. 17, the
テキストデータ受信後、図16に示すように、音声認識AP170は、テキストデータを画面AP158へWebSocketサーバ162を介して送信する(ステップS1122、ステップS1126)。テキストデータを受信した画面AP158は、テキストデータを画面に表示する(ステップS1130)。テキストデータを画面に表示した後、画面AP158は、WebAPサーバ30から次の会話文の音声ファイルと画面データURLを受信し、ユーザの発話に対する応答を行う(ステップS1134)。
After receiving the text data, as shown in FIG. 16, the
ここで、図17を参照しながらステップS1134の詳細を説明する。図17に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の業務WebAPサーバ304にテキストデータを送信する(ステップS1136)。テキストデータを受信した業務WebAPサーバ304は、次の会話文を取得するため、テキストデータをAI対話エンジン部312へ送信する(ステップS1138)。テキストデータを受信したAI対話エンジン部312は、テキストデータに対する応答となる次の会話文を対話データ記憶部316から取得し(ステップS1140)、業務WebAPサーバ304へ次の会話文を送信する(ステップS1142)。
Here, the details of step S1134 will be described with reference to FIG. As shown in FIG. 17, the
次の会話文を受信した業務WebAPサーバ304は、次の会話文の音声ファイルを発話音声エンジン部320に要求する(ステップS1144)。業務WebAPサーバ304から要求を受けた発話音声エンジン部320は、次の会話文の音声ファイルを業務WebAPサーバ304へ送信する(ステップS1146)。次の会話文の音声ファイルを受信した業務WebAPサーバ304は、次の会話文の音声ファイルと、ユーザの発話に対する応答となるサービスを表示するための画面データURLを画面AP158へ送信する(ステップS1148)。
The business
画面AP158は、テキストデータ、及び画面データURLにアクセスして取得した画面データを表示する(ステップS1150)。また、画面AP158は、音声ファイルを再生し、応答の内容を音声でユーザへ伝える(ステップS1152)。
The
なお、顧客操作型端末10は、音声認識機能のONとOFFを切り替えることが可能である。図16に示すように、音声認識機能をONにする場合、画面AP158は、音声認識機能をONにする旨の指示を音声認識AP170へ送信する(ステップS1156)。指示を受信した音声認識AP170は、音声認識機能をONにし、指示に対する応答として音声認識機能をONにした旨を画面AP158へ送信する(ステップS1160)。また、音声認識機能をOFFにする場合、画面AP158は、音声認識機能をOFFにする旨の指示を音声認識AP170へ送信する(ステップS1164)。指示を受信した音声認識AP170は、音声認識機能をOFFにし、指示に対する応答として音声認識機能をOFFにした旨を画面AP158へ送信する(ステップS1168)。
In addition, the customer
なお、音声認識機能がONであり、チケットの発券処理中にユーザが顧客操作型端末10に話しかけた場合、制御部150は、操作表示部136に表示されているサービス情報を非表示にし、第2の表示領域を再表示してもよい。
When the voice recognition function is ON and the user speaks to the customer
以上、図16、及び図17を参照しながら、音声情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明した。続いて、画面操作情報取得時の動作例について説明する。
In the above, the operation example of the customer
[5−3.画面操作情報取得時の動作例]
以下では、図18、及び図19を参照しながら、画面操作情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明する。顧客操作型端末10は、操作表示部136がユーザの画面操作情報を取得すると、取得した画面操作情報に基づき応答を決定し、決定した応答を実行する。図18は、画面操作情報取得時の顧客操作型端末10の動作例を示すシーケンス図である。また、図19は、画面操作情報取得時のWebAPサーバ30の動作例を示すシーケンス図である。
[5-3. Example of operation when acquiring screen operation information]
Hereinafter, an operation example of the customer
まず、図18に示すように、顧客操作型端末10の操作表示部136は、ユーザの画面操作によりボタンを押下した情報を取得すると(ステップS1200)、取得したボタン情報を画面AP158へ送信する(ステップS1204)。ボタン情報を取得した画面AP158は、ボタン情報をWebAPサーバ30へ送信し、WebAPサーバ30から次の会話文の音声ファイルと画面データURLを受信し、ユーザのボタン操作に対する応答を行う(ステップS1208)。
First, as shown in FIG. 18, when the
ここで、図19を参照しながらステップS1208の詳細を説明する。図19に示すように、顧客操作型端末10の画面AP158は、WebAPサーバ30の業務WebAPサーバ304にボタン情報を送信する(ステップS1210)。ボタン情報を受信した業務WebAPサーバ304は、次の会話文の音声ファイルを発話音声エンジン部320に要求する(ステップS1212)。業務WebAPサーバ304から要求を受けた発話音声エンジン部320は、次の会話文の音声ファイルを業務WebAPサーバ304へ送信する(ステップS1214)。次の会話文の音声ファイルを受信した業務WebAPサーバ304は、次の会話文の音声ファイルと、ユーザの発話に対する応答となるサービスを表示するための画面データURLを画面AP158へ送信する(ステップS1216)。
Here, the details of step S1208 will be described with reference to FIG. As shown in FIG. 19, the
画面AP158は、テキストデータ、及び画面データURLにアクセスして取得した画面データを表示する(ステップS1218)。また、画面AP158は、音声ファイルを再生し、応答の内容を音声でユーザへ伝える(ステップS1220)。
The
以上、図18、及び図19を参照しながら、画面操作情報取得時の顧客操作型端末10、及びWebAPサーバ30の動作例について説明した。続いて、本発明の効果について説明する。
In the above, the operation example of the customer
<6.効果>
顧客操作型端末10の制御部150は、ユーザの発話に対する応答の内容に応じて、画面のレイアウトを変更することができ、対話の内容、及び応答の内容を画面の中央に寄せて表示することができる。また、顧客操作型端末10の制御部150は、ユーザの画面操作入力に対する応答の内容についても同様に表示することができる。よって、顧客操作型端末10は、ユーザの視線の移動量を減らすことが可能である。また、顧客操作型端末10は、ユーザの画像と吹き出しよりも上にAIの画像と吹き出しを表示することで、より自然に対話をしている感覚をユーザに与えることが可能である。また、制御部150は、AIが発話した内容を表示する吹き出しの表示領域と、ユーザが発話した内容を表示する吹き出しの表示領域を画面横幅方向に対して所定の長さで表示することができる。さらに、制御部150は、AIの画像をAIが発話した内容を表示する吹き出しよりも上に表示すること、及びユーザの画像をユーザが発話した内容を表示する吹き出しよりも下に表示することができる。よって、制御部150は、各吹き出しを画面の中央に寄せて表示することができる。さらに、制御部150は、吹き出しの横幅を大きくし、吹き出し内の1行に表示可能な情報量(例えばテキストの文字数など)を多くして全体の行数を減らすことで、吹き出し内に表示される対話内容をより画面の中央に寄せて表示することができる。
<6. Effect>
The
以上、図1〜19を参照しながら、本発明の実施形態について説明した。続いて、本発明の実施形態に係る変形例について説明する。 The embodiments of the present invention have been described above with reference to FIGS. Then, the modification concerning an embodiment of the present invention is explained.
<7.変形例>
以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<7. Modified example>
In the following, some variants of the embodiments of the invention will be described. In addition, each modification described below may be independently applied to the embodiment of the present invention, or may be applied to the embodiment of the present invention in combination. In addition, each modification may be applied instead of the configuration described in the embodiment of the present invention, or may be additionally applied to the configuration described in the embodiment of the present invention.
(1)第1の変形例
上述の実施形態では、制御部150は、図5に示すレイアウト1を用いた初期画面を操作表示部136に表示する例を説明したが、本発明を既存APに適用する場合、制御部150は、図5に示すレイアウト2を用いた初期画面を操作表示部136に表示してもよい。初期画面にレイアウト2を用いることで、操作表示部136は、既存APの画面操作用のインタフェースをレイアウト2の第3の表示領域に表示することができる。操作表示部136が既存APの画面操作用のインタフェースを初期画面に表示することで、ユーザは、初期画面で画面操作による入力が可能となる。なお、既存APの画面操作用のインタフェースが初期画面に表示されている場合でも、顧客操作型端末10は、音声入力による操作も可能な状態である。例えば、図20に示すように、操作表示部136は、第3の表示領域800に既存APのインタフェースを表示する。ユーザが第3の表示領域に表示されたボタンを押下すると、操作表示部136は、図21に示す次の画面に遷移する。
(1) First Modification In the above embodiment, the
図21に示す次の画面でも、操作表示部136は、第3の表示領域804に既存APのインタフェースを表示する。初期画面から既存APのインタフェースでの画面操作を可能にすることで、既存APのインタフェースでの画面操作に慣れているユーザは、ストレスなく効率的に顧客操作型端末10を利用することができる。上述のように、制御部150は、初期画面で既存APのインタフェースによる画面操作を可能にすることで、操作表示部136の視認性を向上させることができる。
Also on the next screen shown in FIG. 21, the
(2)第2の変形例
上述の実施形態では、制御部150は、画面操作が可能な画面のレイアウトとして、図5に示すレイアウト2を操作表示部136に表示する例を説明したが、レイアウト2の画面操作が可能な箇所を明確にする表示をしてもよい。例えば、図22に示すように、制御部150は、詳細ボタンを押下可能であることを示す指のアイコン900を、詳細ボタンの近くに表示する。具体的に、制御部150は、ルート1の詳細ボタンにはアイコン900A、ルート2の詳細ボタンにはアイコン900B、ルート3の詳細ボタンにはアイコン900Cを表示する。上述のように、制御部150は、画面操作可能な箇所を明確にする表示を行うことで、操作表示部136の操作性を向上させることができる。
(2) Second Modified Example In the above-described embodiment, an example in which the
なお、アイコン900の表示方法は特に限定されず、任意の方法により表示されてよい。例えば、制御部150は、レイアウト2の画面表示と同時にアイコン900を表示し、数秒間でアイコン900が消えるように設定してもよい。また、制御部150は、アイコン900にアニメーションによる動きをつけてもよい。ここで、アニメーションによる動きとは、例えば、点滅である。制御部150は、指のアイコン900を点滅させることによって、画面操作可能な箇所を、ユーザにとって分かりやすく明確に表示することができる。
Note that the display method of the icon 900 is not particularly limited, and may be displayed by any method. For example, the
(3)第3の変形例
上述の実施形態では、制御部150は、ユーザが項目を選択すると画面を遷移させる例を説明したが、ユーザが選択した項目を強調表示してから画面を遷移させてもよい。例えば、図23の強調表示1に示すように、制御部150は、ユーザが選択した検索結果920を丸枠で囲むことで強調表示してもよい。また、例えば、図23の強調表示2に示すように、制御部150は、ユーザが選択した検索結果922以外の項目の色の明度を高くすることで、ユーザが選択した検索結果922を強調表示してもよい。また、例えば、図23の強調表示3に示すように、制御部150は、ユーザが選択した検索結果924を点滅させることで強調表示してもよい。上述のように、制御部150は、ユーザが選択した項目を強調表示することで、操作表示部136の視認性を向上させることができる。
(3) Third Modification In the above embodiment, the
(4)第4の変形例
上述の実施形態では、制御部150は、第2の表示領域に1つのユーザ画像と1つの吹き出しを表示する例を説明したが、顧客操作型端末10が複数のユーザを検知した場合、制御部150は、第2の表示領域に複数のユーザ画像と複数の吹き出しを表示してもよい。例えば、カメラ120とマイク128が2人のユーザを検知した場合、図24に示すように、1人目のユーザのユーザ画像930と吹き出し932、2人目のユーザのユーザ画像934と吹き出し938を表示してもよい。上述のように、制御部150は、顧客操作型端末10が検知したユーザの数だけユーザ画像と吹き出しを第2の表示領域に表示することで、操作表示部136の視認性を向上させることができる。
(4) Fourth Modification In the above-described embodiment, the
(5)第5の変形例
上述の実施形態では、制御部150は、操作表示部136に画面を縦表示する例を説明したが、制御部150は、操作表示部136の向きに応じて、画面の向き、及び画面のレイアウトを変更してもよい。例えば、操作表示部136が縦向きの場合、制御部150は、上述の実施形態で説明した画面の向き、及び画面のレイアウトを操作表示部136に表示する。また、例えば、操作表示部136の向きが横向きの場合、制御部150は、図25に示すように、画面を横向きに表示する。また、制御部150は、画面の長手方向に沿って第1の表示領域940、第2の表示領域944、第3の表示領域942の順に各表示領域を操作表示部136に表示してもよい。上述のように、制御部150は、操作表示部136の向きに応じて画面を表示する向き、及び画面のレイアウトを変更することで、操作表示部136の視認性を向上させることができる。
(5) Fifth Modification In the above embodiment, the
(6)第6の変形例
上述の実施形態では、制御部150は、チケットを発券した後に、カメラ120がユーザを検知しなくなったら画面の表示を初期画面に戻す例を説明したが、制御部150は、チケットを発券した後に、チケットに関する情報を表示してもよい。例えば、制御部150は、発券したチケットの内容を画面に表示し、チケットの内容を読み上げて音声を出力することでチケットの内容をユーザに伝えて、ユーザがチケットの内容を確認できるようにする。チケットの内容を読み上げる際に、制御部150は、画面に表示されたチケットの内容の読み上げた箇所を赤字にすることで、読み上げられた箇所をユーザが分かるようにしてもよい。上述のように、制御部150は、発券したチケットの内容を表示することで、操作表示部136の視認性を向上させることができる。
(6) Sixth Modification In the above-described embodiment, the
(7)第7の変形例
上述の実施形態では、制御部150は、チケットの発券処理中に、レイアウト3の第4の表示領域にサービス情報を表示する例を説明したが、制御部150は、ユーザがサービス情報を確認している場合、チケットの発券処理速度を遅くしてもよい。例えば、制御部150は、サービス情報の表示中にユーザが画面を操作したことを検知した場合、ユーザがサービス情報を確認していると認識し、チケットの発券処理速度を遅くする。制御部150がチケットの発券処理速度を遅くすることで、ユーザは、サービス情報を確認する時間を確保することができる。上述のように、制御部150は、チケットの発券処理速度を遅くすることで、操作表示部136の視認性を向上させることができる。
(7) Seventh Modification In the above-described embodiment, an example has been described in which the
また、制御部150は、ユーザがサービス情報を確認している場合、ユーザが確認している情報の内容に応じてAIが反応するようにしてもよい。例えば、制御部150は、ユーザがサービス情報として天気予報を確認している場合、AIに「天気が心配ですか?より詳細な天気予報を表示しますか?」と発話させてもよい。ユーザが天気予報の詳細を表示してほしい旨の反応をした場合、制御部150は、操作表示部136に天気予報の詳細を表示する。
In addition, when the user confirms the service information, the
(8)第8の変形例
上述の実施形態では、顧客操作型端末10における画面構成、動作例について説明したが、情報表示装置を用いる場合、制御部150は、画面に表示するサービス情報を時間経過に伴い変化させてもよい。また、制御部150は、レイアウト2を用いた初期画面の第3の表示領域に表示される既存APの操作用画面を時間経過に伴い変化させてもよい。例えば、制御部150は、図20に示す第3の表示領域800に表示される文字の大きさや、色を時間経過に伴い変化させることで、操作表示部136の視認性を向上させることができる。また、情報表示装置を用いる場合、制御部150は、ユーザが入力した操作内容に対応したバーコード情報を作成し、操作表示部136に表示してもよい。ユーザは、自身が所持する携帯型端末に当該バーコード情報(或いはバーコード情報を含む表示画面)を読み込ませることにより、情報表示装置で入力した操作内容を携帯型端末に取得させることができる。
(8) Eighth Modification In the above embodiment, the screen configuration and operation example of the customer
以上、本発明の実施形態に係る変形例について説明した。続いて、本発明の実施形態に係るハードウェア構成について説明する。 Hereinabove, the modification according to the embodiment of the present invention has been described. Subsequently, a hardware configuration according to an embodiment of the present invention will be described.
<8.ハードウェア構成>
上述したサービスの提供に関する情報処理は、ソフトウェアと、以下に説明する顧客操作型端末10のハードウェアとの協働により実現される。
<8. Hardware configuration>
The information processing relating to the provision of the above-described service is realized by the cooperation of software and hardware of the customer-
図26は、顧客操作型端末10のハードウェア構成例を示したブロック図である。顧客操作型端末10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)103と、RAM(Random Access Memory)105を備える。また、顧客操作型端末10は、入力部107と、表示部109と、出力部111と、ストレージ部113と、ネットワークインタフェース115とを備える。
FIG. 26 is a block diagram showing an example of the hardware configuration of the customer
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って顧客操作型端末10内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM103は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM105は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。CPU101、ROM103およびRAM105は、ソフトウェアとの協働により図3を参照して説明した制御部150の機能を実現し得る。
The
入力部107は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。顧客操作型端末10のユーザは、該入力部107を操作することにより、顧客操作型端末10に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
表示部109は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部111は、スピーカおよびヘッドホンなどの音声出力装置を含む。
The
ストレージ部113は、データ格納用の装置である。ストレージ部113は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ部113は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ部113は、ストレージを駆動し、CPU101が実行するプログラムや各種データを格納する。
The
ネットワークインタフェース115は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。かかる通信インタフェースは、例えば、Bluetooth(登録商標)またはZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi−Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースである。また、ネットワークインタフェース115は、有線による通信を行う有線通信装置であってもよい。
The
以上、図26を参照しながら、顧客操作型端末10のハードウェア構成例について説明した。
The example of the hardware configuration of the customer
<9.むすび>
以上説明したように、本発明の実施形態によれば、顧客操作型端末10は、ユーザが発話により入力した音声情報を取得し、音声情報を変換したテキストデータに基づき、ユーザの発話に対する応答を決定することができる。また、顧客操作型端末10の操作表示部136は、AI画像とAIの発話内容を表示する第1の表示領域、ユーザの発話内容を表示する第2の表示領域、及び顧客操作型端末10がユーザに提供するサービスを表示する第3の表示領域で構成される画面を表示することができる。また、顧客操作型端末10の制御部150は、応答の内容に応じて、AIの発話内容をAI画像とサービスの間に配置し、ユーザの発話内容をユーザ画像とサービスの間に配置することができる。上述のように、顧客操作型端末10は、ユーザに必要な情報を画面の中央に寄せて表示することで、ユーザの視線の移動量を減らすことができ、画面の視認性を向上することが可能である。
<9. End>
As described above, according to the embodiment of the present invention, the customer
以上より、画面の視認性を向上することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供することが可能である。 As described above, it is possible to provide a new and improved information processing apparatus, an information processing method, and a program capable of improving the visibility of a screen.
<10.補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<10. Supplement>
Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention belongs can conceive of various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also fall within the technical scope of the present invention.
なお、本明細書の顧客操作型端末10、及びWebAPサーバ30の処理における各ステップは、必ずしもシーケンス図に記載された順序に沿って時系列に処理する必要はない。例えば、顧客操作型端末10の処理における各ステップは、シーケンス図に記載した順序と異なる順序で処理されても、並列的に処理されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
The steps in the processing of the customer-operation-
また、本明細書において説明した顧客操作型端末10、及びWebAPサーバ30は、単独の装置として実現されてもよく、一部または全部が別々の装置として実現されてもよい。例えば、図3に示した顧客操作型端末10、及び図4に示したWebAPサーバ30のように、機能を別々に備える単独の装置として実現されてもよい。また、例えば、図4に示したWebAPサーバ30の全ての機能を、顧客操作型端末10に備えさせ、顧客操作型端末10のみで実現してもよい。また、一部の機能はネットワーク等を介して接続されたサーバ等の装置に備えられてもよい。
Further, the customer
また、顧客操作型端末10、及びWebAPサーバ30に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した顧客操作型端末10、及びWebAPサーバ30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
In addition, in order to cause hardware such as the CPU, ROM, and RAM incorporated in the customer
10 顧客操作型端末
30 WebAPサーバ
120 カメラ
124 スピーカ
128 マイク
132 通信部
136 操作表示部
140 決済媒体部
144 チケット発券部
150 制御部
154 カメラAP
158 画面AP
162 WebSocketサーバ
166 雑音除去モジュール
170 音声認識AP
302 通信部
304 業務WebAPサーバ
308 音声認識エンジン部
312 AI対話エンジン部
316 対話データ記憶部
320 発話音声エンジン部
DESCRIPTION OF
158 screen AP
162
302
Claims (16)
前記音声情報をテキストデータに変換する変換部と、
前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、
前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、
を備える、情報処理装置。 A voice information acquisition unit that obtains voice information input by a user;
A converter for converting the voice information into text data;
A response unit that determines a response based on the text data and executes the response;
A first display area for displaying a dialog partner image showing the user's dialog partner and the dialog contents outputted by the dialog partner by the response; a second display area for displaying the text data; and the response The third display area for displaying the service to be displayed, the third display area being disposed between the first display area and the second display area, and the dialogue contents being the dialogue A control unit configured to control display processing according to the contents of the response so as to be disposed in text description on the side of the third display area with respect to the partner image;
An information processing apparatus comprising:
前記ユーザの画面操作により入力された画面操作情報を取得する画面操作情報取得部と、
をさらに備え、
前記制御部は、前記検知装置が前記ユーザを検知した際に、前記音声情報、及び前記画面操作情報を受け付け可能な状態で待機する、請求項1に記載の情報処理装置。 The information processing apparatus is capable of detecting the user;
A screen operation information acquisition unit that acquires screen operation information input by the user's screen operation;
And further
The information processing apparatus according to claim 1, wherein the control unit stands by in a state where the voice information and the screen operation information can be received when the detection apparatus detects the user.
発券処理を制御する発券処理部と、
をさらに備え、
前記制御部は、前記決済処理部、または前記発券処理部が処理中である場合、前記第4の表示領域にサービス情報を表示する、請求項10に記載の情報処理装置。 The information processing apparatus is a payment processing unit that controls payment processing.
A ticketing processing unit that controls ticketing processing;
And further
The information processing apparatus according to claim 10, wherein the control unit displays service information in the fourth display area when the payment processing unit or the ticket issuance processing unit is processing.
前記音声情報をテキストデータに変換することと、
前記テキストデータに基づき、応答を決定し、前記応答を実行することと、
前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御することと、
を含む、プロセッサにより実行される、情報処理方法。 Obtaining voice information input by the user;
Converting the voice information into text data;
Determining a response based on the text data and executing the response;
A first display area for displaying a dialog partner image showing the user's dialog partner and the dialog contents outputted by the dialog partner by the response; a second display area for displaying the text data; and the response The third display area for displaying the service to be displayed, the third display area being disposed between the first display area and the second display area, and the dialogue contents being the dialogue Controlling the display processing according to the contents of the response so as to arrange in text description on the side of the third display area with respect to the other party image;
An information processing method to be executed by a processor, including:
ユーザが入力した音声情報を取得する音声情報取得部と、
前記音声情報をテキストデータに変換する変換部と、
前記テキストデータに基づき、応答を決定し、前記応答を実行する応答部と、
前記ユーザの対話相手を示す対話相手画像、及び前記応答により前記対話相手が出力する対話内容を表示する第1の表示領域と、前記テキストデータを表示する第2の表示領域と、前記応答により提供されるサービスを表示する第3の表示領域で構成される画面で、前記第3の表示領域を前記第1の表示領域と前記第2の表示領域の間に配置し、前記対話内容を前記対話相手画像よりも前記第3の表示領域側にテキスト表記で配置するように、前記応答の内容に応じて表示処理を制御する制御部と、
として機能させるための、プログラム。 Computer,
A voice information acquisition unit that obtains voice information input by a user;
A converter for converting the voice information into text data;
A response unit that determines a response based on the text data and executes the response;
A first display area for displaying a dialog partner image showing the user's dialog partner and the dialog contents outputted by the dialog partner by the response; a second display area for displaying the text data; and the response The third display area for displaying the service to be displayed, the third display area being disposed between the first display area and the second display area, and the dialogue contents being the dialogue A control unit configured to control display processing according to the contents of the response so as to be disposed in text description on the side of the third display area with respect to the partner image;
A program to function as.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017218278A JP7009940B2 (en) | 2017-11-13 | 2017-11-13 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017218278A JP7009940B2 (en) | 2017-11-13 | 2017-11-13 | Information processing equipment, information processing methods, and programs |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019091151A true JP2019091151A (en) | 2019-06-13 |
| JP7009940B2 JP7009940B2 (en) | 2022-01-26 |
Family
ID=66837421
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017218278A Active JP7009940B2 (en) | 2017-11-13 | 2017-11-13 | Information processing equipment, information processing methods, and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7009940B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021033030A (en) * | 2019-08-23 | 2021-03-01 | 沖電気工業株式会社 | Voice processing device |
| CN114822554A (en) * | 2022-04-28 | 2022-07-29 | 支付宝(杭州)信息技术有限公司 | Interactive processing method and device based on voice |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006072992A (en) * | 2004-08-16 | 2006-03-16 | Mitsubishi Electric Research Laboratories Inc | Single common graphical user interface for network of home appliance, and home appliance network |
| JP2011209786A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processor, information processing method, and program |
| JP2015501022A (en) * | 2011-09-30 | 2015-01-08 | アップル インコーポレイテッド | Automatic user interface adaptation for hands-free interaction |
| JP2015076038A (en) * | 2013-10-11 | 2015-04-20 | Necパーソナルコンピュータ株式会社 | Information processing method, information processing apparatus, and program |
| JP2015512088A (en) * | 2012-02-06 | 2015-04-23 | ウリベ−エチェバリア ヒメネス、シャビエルURIBE−ETXEBARRIA JIMENEZ,Xabier | System and method for integrating remote services |
| WO2017078792A1 (en) * | 2015-11-06 | 2017-05-11 | Apple Inc. | Intelligent automated assistant in a messaging environment |
| JP2017091229A (en) * | 2015-11-10 | 2017-05-25 | 日本信号株式会社 | Automated ticket machine |
-
2017
- 2017-11-13 JP JP2017218278A patent/JP7009940B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006072992A (en) * | 2004-08-16 | 2006-03-16 | Mitsubishi Electric Research Laboratories Inc | Single common graphical user interface for network of home appliance, and home appliance network |
| JP2011209786A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processor, information processing method, and program |
| JP2015501022A (en) * | 2011-09-30 | 2015-01-08 | アップル インコーポレイテッド | Automatic user interface adaptation for hands-free interaction |
| JP2015512088A (en) * | 2012-02-06 | 2015-04-23 | ウリベ−エチェバリア ヒメネス、シャビエルURIBE−ETXEBARRIA JIMENEZ,Xabier | System and method for integrating remote services |
| JP2015076038A (en) * | 2013-10-11 | 2015-04-20 | Necパーソナルコンピュータ株式会社 | Information processing method, information processing apparatus, and program |
| WO2017078792A1 (en) * | 2015-11-06 | 2017-05-11 | Apple Inc. | Intelligent automated assistant in a messaging environment |
| JP2017091229A (en) * | 2015-11-10 | 2017-05-25 | 日本信号株式会社 | Automated ticket machine |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021033030A (en) * | 2019-08-23 | 2021-03-01 | 沖電気工業株式会社 | Voice processing device |
| CN114822554A (en) * | 2022-04-28 | 2022-07-29 | 支付宝(杭州)信息技术有限公司 | Interactive processing method and device based on voice |
| CN114822554B (en) * | 2022-04-28 | 2022-11-22 | 支付宝(杭州)信息技术有限公司 | Interactive processing method and device based on voice |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7009940B2 (en) | 2022-01-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101946364B1 (en) | Mobile device for having at least one microphone sensor and method for controlling the same | |
| JP2022043185A (en) | Multi-participant live communication user interface | |
| US10996838B2 (en) | Automated teller device having accessibility configurations | |
| JP6755556B2 (en) | Information processing equipment, information processing methods and information processing programs | |
| KR20140096573A (en) | Method for controlling contents play and an electronic device thereof | |
| JP7009940B2 (en) | Information processing equipment, information processing methods, and programs | |
| US20070097234A1 (en) | Apparatus, method and program for providing information | |
| WO2021036871A1 (en) | Information input method, device, terminal, and storage medium | |
| JP7210933B2 (en) | Information processing device, information processing system, information processing method and program | |
| JPWO2010021240A1 (en) | Image display device | |
| US20130321561A1 (en) | Video Ticket Office | |
| US9807276B2 (en) | Image processing apparatus having a display device for displaying a trimming range selection screen, and image processing method | |
| JP2011048426A (en) | Cooking auxiliary terminal and program | |
| JP3060379B2 (en) | Information providing system, information providing processing method, and recording medium | |
| CN109710344A (en) | Data input guidance method, device, equipment and readable storage medium storing program for executing | |
| JP7380561B2 (en) | Information processing system, information processing method and storage medium | |
| KR102427761B1 (en) | Did device, did system, and control method for a did device | |
| JP6279912B2 (en) | Automatic transaction equipment and transaction support system | |
| JP2008282324A (en) | Order acceptance system | |
| JP2000207469A (en) | Restaurant information system | |
| KR20140041204A (en) | Bank service providing apparatus for a person who is visually impaired | |
| US20260024528A1 (en) | Wager table assembly and system | |
| JP5440664B2 (en) | Automatic transaction equipment | |
| KR101562901B1 (en) | System and method for supporing conversation | |
| JP5131288B2 (en) | Automatic transaction equipment |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200813 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210428 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211227 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7009940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |