JP2013025608A - Explanation support system, explanation support method and explanation support program - Google Patents
Explanation support system, explanation support method and explanation support program Download PDFInfo
- Publication number
- JP2013025608A JP2013025608A JP2011160625A JP2011160625A JP2013025608A JP 2013025608 A JP2013025608 A JP 2013025608A JP 2011160625 A JP2011160625 A JP 2011160625A JP 2011160625 A JP2011160625 A JP 2011160625A JP 2013025608 A JP2013025608 A JP 2013025608A
- Authority
- JP
- Japan
- Prior art keywords
- display
- terminal
- explanation
- recording
- tablet terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Digital Computer Display Output (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、コンピュータ端末を利用して行なう資料説明を支援するための説明支援システム、説明支援方法及び説明支援プログラムに関する。 The present invention relates to an explanation support system, an explanation support method, and an explanation support program for supporting an explanation of materials performed using a computer terminal.
営業活動等において商品説明を行なう場合、商品のパンフレット等を利用することが多い。更に、ノートパソコンを利用して、商品説明を行なう場合もある。しかしながら、ノートパソコンの場合、一つのディスプレイを営業担当者と顧客とが共用する必要があり、円滑な説明が困難な場合もある。 When explaining products in sales activities, etc., product brochures are often used. In addition, a product description may be made using a notebook computer. However, in the case of a notebook personal computer, it is necessary for a sales person and a customer to share one display, and smooth explanation may be difficult.
そこで、販売活動を支援するための販売支援装置が検討されている(例えば、特許文献1を参照。)。この文献に記載された技術では、文字や画像を表示する表示手段と、タッチパネル構造の入力手段と、音声出力手段とを各々備えた2台の携帯型機器を相互に接続する。一台の携帯型機器を親機として、各表示手段に、同じ情報や異なる情報を表示させる。また、各入力手段から各種情報を入力させることにより、対面している販売員と顧客とが楽な姿勢で同時に表示画面を見ることができる。 Therefore, a sales support apparatus for supporting sales activities has been studied (for example, see Patent Document 1). In the technique described in this document, two portable devices each having display means for displaying characters and images, input means having a touch panel structure, and sound output means are connected to each other. The same information or different information is displayed on each display means by using one portable device as a master. Further, by inputting various information from each input means, the salesperson and the customer facing each other can simultaneously view the display screen in an easy posture.
更に、両面に表示画面を備えた携帯可能なプレゼンテーション支援装置も検討されている(例えば、特許文献2を参照。)。この文献に記載された技術では、説明者は視聴者に対面した状態で自画面を操作し、それを視聴者側の画面に表示してプレゼンテーションを行なう。このプレゼンテーション支援装置は、表示制御部,視聴者側のメイン表示装置,説明者側のサブ表示装置,画像や文字データからなるプレゼンテーション用データを記憶した記憶装置を有する。表示制御部は、記憶装置から取得したプレゼンテーション用データをメイン表示装置及びサブ表示装置に表示させ、サブ表示装置のプレゼンテーション用データの切替えに連動させてメイン表示装置のプレゼンテーション用データを切り替える。説明者はサブ表示装置の画面を見ながらプレゼンテーションを行ない、視聴者はメイン表示装置の画面を見ながら前記説明者のプレゼンテーションを視聴する。 Furthermore, a portable presentation support apparatus having display screens on both sides has been studied (see, for example, Patent Document 2). In the technique described in this document, the presenter operates the own screen while facing the viewer, displays it on the viewer's screen, and makes a presentation. This presentation support device includes a display control unit, a viewer-side main display device, an explainer-side sub-display device, and a storage device that stores presentation data including images and character data. The display control unit displays the presentation data acquired from the storage device on the main display device and the sub display device, and switches the presentation data of the main display device in conjunction with the switching of the presentation data of the sub display device. The presenter gives a presentation while looking at the screen of the sub display device, and the viewer views the presenter's presentation while looking at the screen of the main display device.
特許文献に記載されているように、顧客の手元に設置された端末の画面上に説明資料を表示させて、商品説明を行なう場合、顧客にとって内容の把握が容易である。
一方、説明者にとっては、説明資料だけではなく、他の参考資料を確認しながら説明を行ないたい場合もある。このような場合、すべての資料を顧客に対して開示する必要はない。また、説明資料においても、部分的にポイントのみを顧客に提示することにより、顧客の理解を促進することができる場合がある。
As described in the patent literature, when explanation materials are displayed on the screen of a terminal installed at the customer's hand to explain the product, it is easy for the customer to grasp the contents.
On the other hand, there are cases where the presenter wants to explain while confirming not only the explanatory material but also other reference materials. In such cases, it is not necessary to disclose all materials to the customer. Also, in the explanatory material, the customer's understanding may be promoted by partially presenting only the points to the customer.
本発明は、上記問題点を解決するためになされたものであり、コンピュータ端末を利用して、効率的に資料説明を行なうための説明支援システム、説明支援方法及び説明支援プログラムを提供することにある。 The present invention has been made to solve the above problems, and provides an explanation support system, an explanation support method, and an explanation support program for efficiently explaining materials using a computer terminal. is there.
上記問題点を解決するために、請求項1に記載の発明は、第1のディスプレイを備えた第1の端末と、前記第1の端末と通信を行なうとともに、第2のディスプレイを備えた第2の端末とから構成された説明支援システムであって、前記第1のディスプレイに説明資料ファイルを表示する手段と、前記第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する手段と、前記同期表示領域に表示された内容を含めた同期画面を、前記第2のディスプレイに表示する手段とを備えたことを要旨とする。
In order to solve the above-mentioned problem, the invention according to
請求項2に記載の発明は、請求項1に記載の説明支援システムにおいて、表示時刻情報に関連付けて、画像データを記録する録画データ記憶手段を更に備え、前記第2のディスプレイに表示された同期画面をキャプチャした画像データを、表示時刻情報に関連付けて、前記録画データ記憶手段に記録する手段を備えたことを要旨とする。
The invention described in
請求項3に記載の発明は、請求項1又は2に記載の説明支援システムにおいて、前記第1のディスプレイにおいて、前記同期表示領域内で指定された第1ポインタ位置を特定する手段と、前記第2のディスプレイにおいて、前記同期画面内で前記第1ポインタ位置に対応する位置に第1ポインタ表示を出力することを要旨とする。 According to a third aspect of the present invention, in the explanation support system according to the first or second aspect, in the first display, a means for specifying a first pointer position designated in the synchronous display area; In the second display, the gist is to output a first pointer display at a position corresponding to the first pointer position in the synchronization screen.
請求項4に記載の発明は、請求項1〜3のいずれか一つに記載の説明支援システムにおいて、前記第2のディスプレイにおいて、前記同期画面内で指定された第2ポインタ位置を特定する手段と、前記第1のディスプレイにおいて、前記同期表示領域内で前記第2ポインタ位置に対応する位置に第2ポインタ表示を出力することを要旨とする。 According to a fourth aspect of the present invention, in the explanation support system according to any one of the first to third aspects, a means for specifying a second pointer position designated in the synchronization screen on the second display. In the first display, the second pointer display is output at a position corresponding to the second pointer position in the synchronous display area.
請求項5に記載の発明は、請求項1〜4のいずれか一つに記載の説明支援システムにおいて、前記第1の端末は、ネットワークを介して、バックヤード端末に接続されており、録音時刻情報に関連付けて、音声データを記録する録音データ記憶手段を更に備え、前記第1の端末において取得した音声データを、録音時刻情報に関連付けて、前記録音データ記憶手段に記録する手段と、前記第1の端末において、バックヤードへの支援要請入力が行なわれた場合、前記録音データ記憶手段から前記支援要請入力が行なわれた時刻に対して所定時間範囲内の音声データを抽出し、前記音声データを前記バックヤード端末に送信する手段と、前記バックヤード端末から支援情報を受信した前記第1の端末は、前記第1のディスプレイに前記支援情報を出力することを要旨とする。 According to a fifth aspect of the present invention, in the explanation support system according to any one of the first to fourth aspects, the first terminal is connected to a backyard terminal via a network, and has a recording time. Recording data storage means for recording voice data in association with information; means for recording voice data acquired in the first terminal in the recording data storage means in association with recording time information; When a support request input to the backyard is performed at one terminal, voice data within a predetermined time range is extracted from the recording data storage means at a time when the support request input is performed, and the voice data Means for transmitting to the backyard terminal, and the first terminal receiving the support information from the backyard terminal displays the support information on the first display. And it is required to output.
請求項6に記載の発明は、請求項5に記載の説明支援システムにおいて、前記バックヤード端末から支援情報を受信した前記第1の端末は、前記第1のディスプレイにおける前記同期表示領域外の領域に、前記支援情報を表示することを要旨とする。 The invention according to claim 6 is the explanation support system according to claim 5, wherein the first terminal that has received support information from the backyard terminal is an area outside the synchronous display area in the first display. The gist is to display the support information.
請求項7に記載の発明は、第1のディスプレイを備えた第1の端末と、前記第1の端末と通信を行なうとともに、第2のディスプレイを備えた第2の端末とから構成された説明支援システムを用いて、説明支援を行なう方法であって、前記第1の端末が、前記第1のディスプレイに説明資料ファイルを表示する段階と、前記第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する段階と、前記同期表示領域に表示された内容を含めた同期画面を、前記第2のディスプレイに表示する段階とを実行することを要旨とする。 The invention according to claim 7 is composed of a first terminal having a first display and a second terminal having a second display while communicating with the first terminal. A method for providing explanation support using a support system, wherein the first terminal displays an explanation material file on the first display, and is designated by a user on the first display. The gist is to execute a step of specifying a synchronous display region and a step of displaying a synchronous screen including contents displayed in the synchronous display region on the second display.
請求項8に記載の発明は、第1のディスプレイを備えた第1の端末と、前記第1の端末と通信を行なうとともに、第2のディスプレイを備えた第2の端末とから構成された説明支援システムを用いて、説明支援を行なうプログラムであって、前記第1の端末を、前記第1のディスプレイに説明資料ファイルを表示する手段、前記第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する手段、前記同期表示領域に表示された内容を含めた同期画面を、前記第2のディスプレイに表示する手段として機能させることを要旨とする。 The invention according to claim 8 is an explanation composed of a first terminal provided with a first display, and a second terminal provided with a second display while communicating with the first terminal. A program for supporting explanation using a support system, wherein the first terminal displays an explanation material file on the first display, and the synchronization specified by the user on the first display The gist of the present invention is to cause a means for specifying a display area and a means for displaying a synchronization screen including the contents displayed in the synchronization display area on the second display.
(作用)
請求項1、7又は8に記載の発明によれば、第1のディスプレイに説明資料ファイルを表示する。次に、第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する。そして、同期表示領域に表示された内容を含めた同期画面を、第2のディスプレイに表示する。これにより、親機である第1の端末に表示された説明資料の必要部分のみを、子機である第2の端末に表示させて、説明を行なうことができる。
(Function)
According to the invention of
請求項2に記載の発明によれば、第2のディスプレイに表示された同期画面をキャプチャした画像データを、表示時刻情報に関連付けて、録画データ記憶手段に記録する。これにより、第2の端末を用いて、利用者が閲覧した内容を、後から確認することができる。従って、例えば、商品説明の場面等においては、録画データ記憶手段に記録された情報に基づいて、顧客に対する説明状況を把握することができる。 According to the second aspect of the present invention, the image data obtained by capturing the synchronous screen displayed on the second display is recorded in the recorded data storage means in association with the display time information. Thereby, the content browsed by the user can be confirmed later using the second terminal. Therefore, for example, in the case of a product explanation, it is possible to grasp the explanation situation for the customer based on the information recorded in the recording data storage means.
請求項3に記載の発明によれば、第1のディスプレイにおいて、同期表示領域内で指定された第1ポインタ位置を特定する。そして、第2のディスプレイにおいて、同期画面内で第1ポインタ位置に対応する位置に第1ポインタ表示を出力する。これにより、第1の端末の利用者(例えば、営業担当者)が指し示した部分を、第2の端末において特定することができる。
According to the invention described in
請求項4に記載の発明によれば、第2のディスプレイにおいて、同期画面内で指定された第2ポインタ位置を特定する。そして、第1のディスプレイにおいて、同期表示領域内で第2ポインタ位置に対応する位置に第2ポインタ表示を出力する。これにより、第2の端末の利用者が指し示した部分を、第1の端末において特定することができる。 According to the fourth aspect of the present invention, the second pointer position specified in the synchronization screen is specified on the second display. Then, on the first display, the second pointer display is output at a position corresponding to the second pointer position in the synchronous display area. Thereby, the part which the user of the 2nd terminal pointed out can be specified in the 1st terminal.
請求項5に記載の発明によれば、第1の端末において取得した音声データを、録音時刻情報に関連付けて、録音データ記憶手段に記録する。第1の端末において、バックヤードへの支援要請入力が行なわれた場合、録音データ記憶手段から支援要請入力が行なわれた時刻に対して所定時間範囲内の音声データを抽出し、音声データをバックヤード端末に送信する。そして、バックヤード端末から支援情報を受信した第1の端末は、第1のディスプレイに支援情報を出力する。これにより、バックヤードにおける支援担当者(例えば、管理者)に対して、効率的に支援要請を行なうことができる。そして、支援担当者は、音声データに基づいて、説明状況を把握し、支援を行なうことができる。第1の端末の利用者は、支援担当者から取得したメッセージやファイル等の支援情報により、支援を受けることができる。 According to the fifth aspect of the present invention, the audio data acquired in the first terminal is recorded in the recording data storage means in association with the recording time information. In the first terminal, when a support request is input to the backyard, voice data within a predetermined time range is extracted from the recording data storage means at the time when the support request is input, and the voice data is backed. Send to yard terminal. Then, the first terminal that has received the support information from the backyard terminal outputs the support information to the first display. Thereby, a support request can be efficiently made to a support person in charge in the backyard (for example, an administrator). The person in charge of support can grasp the explanation status based on the voice data and provide support. The user of the first terminal can receive support based on support information such as a message or a file acquired from the support staff.
請求項6に記載の発明によれば、バックヤード端末から支援情報を受信した第1の端末は、第1のディスプレイにおける同期表示領域外の領域に、支援情報を表示する。これにより、第2の端末の利用者に支援内容を知られることなく、第1の端末の利用者は支援を受けることができる。 According to the sixth aspect of the present invention, the first terminal that has received the support information from the backyard terminal displays the support information in an area outside the synchronous display area on the first display. Thereby, the user of the first terminal can receive support without the support content being known by the user of the second terminal.
本発明によれば、コンピュータ端末を利用して、効率的に資料説明を行なうための説明支援システム、説明支援方法及び説明支援プログラムを提供することができる。 According to the present invention, it is possible to provide an explanation support system, an explanation support method, and an explanation support program for efficiently explaining materials using a computer terminal.
以下、本発明を具体化した説明支援システムの一実施形態を図1〜図7に従って説明する。本実施形態では、営業担当者が、顧客との対面販売において、説明資料を用いて商品説明を行なう場合を説明する。本実施形態では、図1に示すように、無線通信可能な範囲に設置されたタブレット端末10(第2の端末)、タブレット端末20(第1の端末)を用いる。更に、タブレット端末20は、ネットワークを介してバックヤード端末30に接続される。
Hereinafter, an embodiment of an explanation support system embodying the present invention will be described with reference to FIGS. In the present embodiment, a case will be described in which a salesperson performs product explanation using explanatory materials in face-to-face sales with a customer. In the present embodiment, as illustrated in FIG. 1, a tablet terminal 10 (second terminal) and a tablet terminal 20 (first terminal) installed in a wireless communicable range are used. Furthermore, the
タブレット端末10は、商品説明を受ける顧客が用いるコンピュータ端末(子機)である。一方、タブレット端末20は、商品説明を行なう営業担当者が用いるコンピュータ端末(親機)である。タブレット端末10とタブレット端末20とは、後述するように相互に通信を行なう。通信方式としては、例えば、Bluetooth (登録商標)等を用いることにより、近距離通信を行なう。そして、親機であるタブレット端末20に表示された説明資料を、子機であるタブレット端末10にも表示させて、商品説明を行なう。なお、通信方式は無線通信に限定されるものではなく、有線通信を用いることも可能である。
The
タブレット端末10は、図1に示すように、制御部11、データ記憶部12、タッチパネルディスプレイ15、マイク16、無線通信部17を備えている。一方、タブレット端末20は、制御部21、データ記憶部22、タッチパネルディスプレイ25、マイク26、無線通信部27を備えている。
As illustrated in FIG. 1, the
タッチパネルディスプレイ(15、25)は入出力手段として機能し、ディスプレイ上に情報を出力するとともに、ディスプレイ表面へのタッチを検知した場合、タッチ位置(座標)を特定して各種操作処理(ポインティング処理、キー入力処理等)を行なう。 The touch panel display (15, 25) functions as an input / output means, outputs information on the display, and when a touch on the display surface is detected, specifies a touch position (coordinate) and performs various operation processes (pointing process, Key input processing).
図3に示すように、タッチパネルディスプレイ15には同期エリア151、タッチパネルディスプレイ25には同期エリア251が設定される。タッチパネルディスプレイ25の同期エリア251に表示されている内容が、タッチパネルディスプレイ15の同期エリア151(同期画面)に拡大されて表示される。本実施形態では、同期エリア(151、251)には、説明資料ファイルが表示される。同期エリア251のフレームをタッチした状態でスライドさせた場合、フレームを水平移動させる制御を行なう。これにより、同期エリア251の全体移動や拡大、縮小を行なうことができる。
As shown in FIG. 3, a
更に、タブレット端末20のタッチパネルディスプレイ25の同期エリア251においてタッチされた位置a1(第1ポインタ位置)は、後述するようにタブレット端末10のタッチパネルディスプレイ15上に、親機ポインタb1(第1ポインタ表示)が表示される。また、タブレット端末10のタッチパネルディスプレイ15においてタッチされた位置b2(第2ポインタ位置)は、後述するようにタブレット端末20のタッチパネルディスプレイ25上に、子機ポインタa2(第2ポインタ表示)として表示される。
Further, a position a1 (first pointer position) touched in the
更に、タッチパネルディスプレイ25において、同期エリア251以外の画面領域には、同期開始ボタン252、同期停止ボタン253、説明義務リスト表示エリア254、バックヤード支援要請ボタン255、バックヤードメッセージエリア256等が表示される。
Further, on the
同期開始ボタン252は、同期エリア251の表示内容を同期エリア151に表示させる同期処理の開始を指示するアイコンである。一方、同期停止ボタン253は同期処理の停止を指示するアイコンである。
The synchronization start button 252 is an icon for instructing the start of synchronization processing for displaying the display contents of the
説明義務リスト表示エリア254には、説明資料ファイルを用いた商品説明において、説明すべき項目が列挙された説明義務リストが表示される。そして、この説明義務リスト表示エリア254において、説明済みの項目については、消込表示が行なわれる。
The explanation obligation
バックヤード支援要請ボタン255は、バックヤード端末30を利用している管理者に支援を要請するためのアイコンである。このバックヤード端末30から、管理者からのメッセージを受信した場合、タッチパネルディスプレイ25のバックヤードメッセージエリア256に表示される。
The backyard
マイク(16、26)は集音手段として機能する。ここでは、マイク16では主に顧客の音声、マイク26では主に営業担当者の音声を集音する。
無線通信部(17、27)は、通信可能な距離範囲内に存在する他の通信端末との間で、上述の通信方式により無線通信を行なう。この無線通信部(17、27)は、ペアリングにより他の通信端末と通信するための端末識別子に関するデータを保持している。
The microphones (16, 26) function as sound collecting means. Here, the
The wireless communication units (17, 27) perform wireless communication with other communication terminals existing within a communicable distance range by the above-described communication method. The wireless communication units (17, 27) hold data relating to terminal identifiers for communicating with other communication terminals by pairing.
子機であるタブレット端末10の制御部11は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(画面操作段階、表示制御段階、録画段階、ポインタ転送段階、録音段階等の各処理等)を行なう。そのための説明支援プログラム(子機用)を実行することにより、制御部11は、図2に示すように、画面操作手段110、表示制御手段111、録画手段113、ポインタ転送手段114、録音手段115として機能する。
The
画面操作手段110は、タッチパネルディスプレイ15におけるタッチ操作による入力情報を取得する処理を実行する。
表示制御手段111は、タッチパネルディスプレイ15の表示を制御する処理を実行する。本実施形態では、タブレット端末20から同期エリア251の画面データを取得し、タブレット端末10のタッチパネルディスプレイ15の同期エリア151に表示する。表示制御手段111は、この同期エリア151を、タッチパネルディスプレイ15上において可能な範囲で大きく表示させる。具体的には、同期エリア251と相似形状の同期エリア151を生成するとともに、同期エリア151の横幅又は高さが、タッチパネルディスプレイ15の横幅又は高さに一致するように表示する。
The screen operation means 110 executes processing for acquiring input information by a touch operation on the
The display control unit 111 executes processing for controlling display on the
録画手段113は、タッチパネルディスプレイ15に表示された画面を、定期的にキャプチャしたキャプチャ画像データを生成する。そして、表示時刻情報に関連付けて、録画ファイルとしてデータ記憶部12に記録する処理を実行する。この録画手段113は、タブレット端末10とタブレット端末20との間で画面同期処理が行なわれている期間中、録画ファイルを記録する。
The
ポインタ転送手段114は、タッチパネルディスプレイ15にタッチされた位置b2を特定し、この位置情報を親機のタブレット端末20に送信する処理を実行する。ここでは、同期エリア151における相対位置を特定する座標情報を転送する。例えば、同期エリア151の横幅及び高さに対する比率によって表現された座標情報を用いる。
The pointer transfer means 114 executes a process of specifying the position b2 touched on the
録音手段115は、マイク16を用いて集音した音声を用いて録音ファイルを生成し、録音時刻情報に関連付けて、データ記憶部12に記録する処理を実行する。この録音手段115は、タブレット端末20から取得した説明開始指示から説明終了指示までの期間中、録音ファイルを記録する。
The
データ記憶部12には、録音ファイル、録画ファイルが記録される。本実施形態では、録音手段115によって生成された録音ファイルや、録画手段113によって生成された録画ファイルが記録される。録画ファイル領域は録画データ記憶手段として機能する。そして、録音ファイル領域や録画ファイル領域には、時刻に関する情報(録音時刻、表示時刻情報)が関連付けられた音声データや録画データが記録される。
In the
親機であるタブレット端末20の制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(画面操作段階、表示制御段階、同期エリア設定段階、画面転送段階、ポインタ転送段階等の各処理等)を行なう。そのための説明支援プログラム(親機用)を実行することにより、制御部21は、図2に示すように、画面操作手段210、表示制御手段211、同期エリア設定手段212、画面転送手段213、ポインタ転送手段214として機能する。更に、制御部21は、後述する処理(録音段階、キーワード抽出段階、NGワード確認段階、説明義務確認段階、バックヤード連絡段階等の各処理等)を行なう。そして、制御部21は、図2に示すように、録音手段215、キーワード抽出手段216、NGワード確認手段217、説明義務確認手段218、バックヤード連絡手段219として機能する。
The
画面操作手段210は、タッチパネルディスプレイ25におけるタッチ操作による画面操作を制御する処理を実行する。
表示制御手段211は、タッチパネルディスプレイ25における表示を制御する処理を実行する。
The
The
同期エリア設定手段212は、タッチパネルディスプレイ25において指定された同期表示領域(同期エリア251)を特定する処理を実行する。同期エリア設定手段212は、タッチパネルディスプレイ25において指定された同期エリア251の座標に関するデータを記憶する。この同期エリア251内に表示された画像が、子機のタブレット端末10のタッチパネルディスプレイ15に表示される。
The synchronization
画面転送手段213は、同期エリア251内に表示された内容(画像データ)を、タブレット端末10に転送する処理を実行する。
ポインタ転送手段214は、タッチパネルディスプレイ25においてタッチされた位置a1の位置情報をタブレット端末10に転送する処理を実行する。ここでは、同期エリア251における相対位置を特定する座標情報を転送する。例えば、同期エリア251の横幅及び高さに対する比率によって表現された座標情報を用いる。
The
The
録音手段215は、マイク26によって集音された音声を用いて録音ファイルを生成し、データ記憶部22に記録する処理を実行する。
キーワード抽出手段216は、マイク26によって集音された音声の音声認識処理により、テキストに変換した音声認識結果をデータ記憶部22に記録する処理を実行する。そして、キーワード抽出手段216は、音声認識結果と、データ記憶部22の説明義務リスト及びNGワードリストに記録されたキーワードとをマッチングする処理(キーワードスポッティング処理)を実行する。
The
The
NGワード確認手段217は、キーワードスポッティングされたテキストを用いて、発言の中で含まれるNGワードを特定する処理を実行する。更に、NGワード確認手段217は、NGワードに対する対応状況に応じて、バックヤード端末30に通知の要否を判定するためのNGワード通知判定基準時間に関するデータを保持している。更に、NGワード確認手段217は、バックヤード端末30に送信する録音データの録音期間(所定時間)に関するデータを保持している。
The NG
説明義務確認手段218は、キーワードスポッティングされたテキストを用いて、説明すべき内容の説明状況を確認する処理を実行する。更に、説明義務確認手段218は、説明義務項目の消込状況に応じて、バックヤード端末30に通知の要否を判定するための説明義務通知判定基準時間に関するデータを保持している。更に、説明義務確認手段218は、バックヤード端末30に送信する録音データの録音期間(所定時間)に関するデータを保持している。
バックヤード連絡手段219は、バックヤード端末30に、説明状況(説明義務項目の消込状況やNGワードの対応状況)を通知する処理を実行する。
The explanation obligation confirmation means 218 executes processing for confirming the explanation status of the contents to be explained using the text spotted by the keyword. Furthermore, the accountability confirmation means 218 holds data related to the accountability notification determination reference time for determining whether the
The backyard contact means 219 executes processing for notifying the
データ記憶部22には、説明資料ファイル、説明義務リスト、NGワードリスト、確認対象データ、録音ファイル、音声認識結果ファイルが記録される。本実施形態では、説明義務リスト及びNGワードリストが、キーワードが記録されたチェックリストとして機能する。
The
説明資料ファイル領域には、商品説明において用いる文書ファイルが記録される。本実施形態では、スライド形式のファイルを用いる。この説明資料ファイルには、説明対象の商品を特定する商品コードや商品名を関連付けられて記録されている。 A document file used in the product description is recorded in the explanation material file area. In this embodiment, a slide format file is used. In the explanation material file, a merchandise code and a merchandise name for specifying a merchandise to be explained are associated and recorded.
説明義務リスト領域には、商品コードに関連付けられた説明義務リストが記録されている。説明義務リストには、この商品コードの商品の説明時に説明する必要がある項目のキーワードが記録されている。説明すべき項目が複数ある場合には、すべての項目に対応するキーワードが記録されている。 The accountability list associated with the product code is recorded in the accountability list area. In the explanation obligation list, keywords of items that need to be explained at the time of explanation of the commodity of this commodity code are recorded. When there are a plurality of items to be explained, keywords corresponding to all items are recorded.
NGワードリスト領域には、商品説明時に使用を避ける単語等、注意すべき表現に含まれるキーワード(NGワード)が記録されている。
確認対象データ領域には、商品説明の対象商品の説明義務リストや、検知したNGワードが仮記憶される。この説明義務リストには、説明資料ファイルがオープンされた時刻(説明開始時刻)に関するデータが関連付けられて記録される。更に、説明義務リストの各項目には、音声認識においてキーワードを検知した時刻(確認時刻)に関するデータが関連付けられて記録される。また、NGワードには、NGワードを検知した検知時刻に関するデータが関連付けられて記録される。更に、対応済み入力が行なわれた場合には、NGワードに対して対応時刻に関するデータが関連付けられて記録される。
In the NG word list area, keywords (NG words) included in expressions that should be noted, such as words that should not be used during product descriptions, are recorded.
In the confirmation target data area, the explanation obligation list of the target product of the product description and the detected NG word are temporarily stored. In this explanation obligation list, data relating to the time when the explanation material file is opened (explanation start time) is recorded in association with each other. Furthermore, each item in the explanation obligation list is associated with data related to the time (confirmation time) when the keyword is detected in the voice recognition. In addition, data relating to the detection time at which the NG word is detected is associated with the NG word and recorded. Further, when a corresponding input is made, data relating to the corresponding time is recorded in association with the NG word.
録音ファイル領域は録音データ記憶手段として機能する。そして、録音ファイル領域には、録音手段215によって生成された録音ファイルが記録される。録音ファイルには、音声を集音した時刻に関する情報(録音時刻情報)が関連付けられて、音声データが記録される。
The recording file area functions as recording data storage means. The recording file generated by the
音声認識結果ファイル領域は、認識結果記憶手段として機能する。そして、音声認識結果ファイル領域には、音声認識処理により、音声をテキストに変換した認識結果ファイルが記録される。音声認識結果ファイルには、テキストを生成した音声を集音した時刻(集音時期)に関する情報が関連付けられて、音声データが記録される。 The voice recognition result file area functions as a recognition result storage unit. In the voice recognition result file area, a recognition result file obtained by converting voice into text by voice recognition processing is recorded. Information related to the time (sound collection time) when the sound that generated the text is collected is associated with the voice recognition result file, and the voice data is recorded.
バックヤード端末30は、営業担当者を支援する管理者が用いるコンピュータ端末である。このバックヤード端末30には、ディスプレイ等の出力手段や、マイク、ポインティングデバイスやキーボードからなる入力手段を備える。更に、バックヤード端末30は、マイクにより集音した音声をテキスト化する音声認識手段を備える。
The
次に、この説明支援システムにおける動作を、図4〜図7を用いて説明する。ここでは、画面連携処理、キーワード対応処理、NGワード対応処理、バックヤード支援処理の順番に説明する。 Next, the operation of this explanation support system will be described with reference to FIGS. Here, the screen cooperation process, the keyword handling process, the NG word handling process, and the backyard support process will be described in this order.
(画面連携処理)
まず、画面連携処理を、図4を用いて説明する。この処理は、顧客と対面して商品説明を行なう場合に行なわれる。この場合、無線通信部(17、27)を介して、タブレット端末10とタブレット端末20とをペアリングしておく。
(Screen linkage processing)
First, the screen cooperation process will be described with reference to FIG. This process is performed when a product explanation is given in the face of a customer. In this case, the
そして、タブレット端末20の制御部21は、説明開始処理を実行する(ステップS1−1)。具体的には、営業担当者が、顧客に対して商品説明を行なう場合、タブレット端末20において説明支援プログラムを起動し、説明開始指示を入力する。そして、営業担当者は、タブレット端末20のデータ記憶部22に格納された説明資料ファイルの中から、商品説明に用いる説明資料ファイルのアイコンを選択する。この場合、制御部21の画面操作手段210は、アイコンに対応する説明資料ファイルの展開処理を行なう。そして、表示制御手段211は、タッチパネルディスプレイ25上に、説明資料ファイルを表示する。
And the
説明開始指示の入力を検知したタブレット端末20の制御部21は、録音処理を実行する(ステップS1−2)。具体的には、制御部21の録音手段215は、マイク26において集音を開始する。そして、録音手段215は、録音時刻に関連付けて、集音した音声の録音ファイルを生成し、データ記憶部22に記録する。更に、録音手段215は、タブレット端末10に対して、無線通信部27を介して、録音開始指示を送信する。
The
無線通信部17を介して、録音開始指示を受信したタブレット端末10の制御部11は、録音処理を実行する(ステップS1−3)。具体的には、制御部11の録音手段115は、マイク16において集音を開始する。そして、録音手段115は、録音時刻に関連付けて、集音した音声の録音ファイルを生成し、データ記憶部12に記録する。
The
なお、営業担当者が、顧客に対する商品説明を終了する場合、タブレット端末20において説明終了を入力する。この場合、録音手段215は、録音処理(ステップS1−2)を終了するとともに、タブレット端末10に対して、無線通信部27を介して、録音終了指示を送信する。そして、録音手段115も、録音処理(ステップS1−3)を終了する。
When the sales representative ends the product description for the customer, the
次に、タブレット端末20の制御部21は、同期エリアの設定処理を実行する(ステップS1−4)。具体的には、制御部21の同期エリア設定手段212は、タッチパネルディスプレイ25に、同期エリアの設定を促すメッセージを出力する。この場合、営業担当者は、タッチパネルディスプレイ25上に、同期エリアを特定するための座標を入力する。本実施形態では、タッチパネルディスプレイ25において、同期エリアの始点と終点となる位置をタッチすることにより、両点を対角線上に有する矩形領域を同期エリア251として設定する。例えば、商品説明において、タッチパネルディスプレイ25に表示された説明資料ファイル全体を用いる場合には、説明資料ファイルが表示された領域を同期エリア251として設定する。また、商品説明において、説明資料ファイルの表示の一部を用いて説明する場合には、説明に用いる部分を同期エリア251として設定する。また、設定した同期エリア251を、縮小や拡大、スライド移動させる場合には、同期エリア251のフレームにタッチしてスライドさせる。
Next, the
次に、タブレット端末20の制御部21は、同期開始処理を実行する(ステップS1−5)。具体的には、制御部21の同期エリア設定手段212は、タッチパネルディスプレイ25上において、同期エリア251以外の領域に、同期開始ボタン252と同期停止ボタン253とを表示する。ここで、画面操作手段210が同期開始ボタン252の選択を検知した場合、画面転送手段213に対して、同期処理の開始を指示する。
Next, the
そして、タブレット端末20の制御部21は、画面同期処理を実行する(ステップS1−6)。具体的には、制御部21の画面転送手段213は、同期エリア251に表示されている内容(画面データ)を、無線通信部27を介してタブレット端末10に転送する。この画面同期処理は、同期停止ボタン253が選択されるまで継続して行なわれる。
And the
無線通信部17を介して画面データを受信したタブレット端末10の制御部11は、画面表示処理を実行する(ステップS1−7)。具体的には、制御部11の表示制御手段111は、画面データのサイズに合わせて、タッチパネルディスプレイ15に同期エリア151を設定する。本実施形態では、上述したように、タッチパネルディスプレイ15の横幅又は高さと一致するように同期エリア151として設定する。そして、表示制御手段111は、タブレット端末20から取得した画面データを、タッチパネルディスプレイ15上の同期エリア151に表示する。
The
更に、タブレット端末10の制御部11は、画面録画処理を実行する(ステップS1−8)。具体的には、制御部11の録画手段113は、タッチパネルディスプレイ15に表示された内容を定期的にキャプチャした録画ファイルを生成し、表示時刻に関連付けてデータ記憶部12に記録する。
Furthermore, the
商品説明を中断や終了する場合、タブレット端末20の制御部21は、同期停止処理を実行する(ステップS1−9)。具体的には、制御部21の画面操作手段210が、同期停止ボタン253の選択を検知した場合、画面転送手段213に対して、画面転送の停止を指示する。再度、同期させる場合には、同期開始ボタン252を選択することにより、ステップS1−5以降の処理が繰り返される。更に、画面転送手段213は、タブレット端末10に対して録画停止指示を送信する。
When the product description is interrupted or terminated, the
録画停止指示を受信したタブレット端末10の制御部11は、録画停止処理を実行する(ステップS1−10)。具体的には、制御部11の録画手段113は、録画ファイルの記録を停止する。
The
また、画面同期処理(ステップS1−6)中においては、営業担当者は、必要に応じて説明資料ファイルの所定箇所を指差して説明する。この場合、タブレット端末20の制御部21は、画面上での指示検知処理を実行する(ステップS1−11)。具体的には、制御部21の画面操作手段210が、同期エリア251上でタッチを検知する。この場合、画面操作手段210は、この位置a1にポインタを表示する。そして、画面操作手段210が、同期エリア251上のタッチ位置(座標)をポインタ転送手段214に通知する。
Further, during the screen synchronization process (step S1-6), the salesperson points to a predetermined location of the explanation material file as necessary and explains. In this case, the
この場合、タブレット端末20の制御部21は、指示位置の通知処理を実行する(ステップS1−12)。具体的には、制御部21のポインタ転送手段214は、タッチ位置について、同期エリア251上の相対座標を特定する。そして、ポインタ転送手段214は、無線通信部27を介して、ポインタ表示指示をタブレット端末10に送信する。このポインタ表示指示には、特定した位置情報(相対座標)を含める。
In this case, the
無線通信部17を介して、ポインタ表示指示を受信したタブレット端末10の制御部11は、ポインタ表示処理を実行する(ステップS1−13)。具体的には、制御部11の表示制御手段111は、同期エリア151において、タブレット端末20から取得した位置情報に対応する座標(同期エリア251上と相対した位置)に親機ポインタb1を表示する。このように表示された親機ポインタb1も、画面録画処理(ステップS1−8)において、録画ファイルに記録される。
The
また、顧客が、必要に応じて説明資料ファイルの所定箇所を指差すこともある。この場合、タブレット端末10の制御部11は、画面上での指示検知処理を実行する(ステップS1−14)。具体的には、制御部11の画面操作手段110が、同期エリア151上でタッチを検知する。この場合、画面操作手段110は、この位置b2にポインタを表示する。そして、画面操作手段110が、同期エリア151上のタッチ位置(座標)をポインタ転送手段114に通知する。この位置b2に表示されたポインタも、画面録画処理(ステップS1−8)において、録画ファイルに記録される。
Further, the customer may point to a predetermined part of the explanation material file as necessary. In this case, the
この場合、タブレット端末10の制御部11は、指示位置の通知処理を実行する(ステップS1−15)。具体的には、制御部11のポインタ転送手段114は、タッチ位置について、同期エリア151上の相対座標を特定する。そして、ポインタ転送手段114は、無線通信部17を介して、ポインタ表示指示をタブレット端末20に送信する。このポインタ表示指示には、特定した位置情報(相対座標)を含める。
In this case, the
無線通信部27を介して、ポインタ表示指示を受信したタブレット端末20の制御部21は、ポインタ表示処理を実行する(ステップS1−16)。具体的には、制御部21の表示制御手段211は、同期エリア251において、タブレット端末10から取得した位置情報に対応する座標(同期エリア151上と相対した位置)に、子機ポインタa2を出力する。
The
(キーワード対応処理)
次に、キーワード対応処理を、図5を用いて説明する。このキーワード対応処理は、営業担当者が、タブレット端末20を用いて、商品説明を行なっている場合に実行される。
(Keyword handling process)
Next, the keyword correspondence processing will be described with reference to FIG. This keyword handling process is executed when the sales representative is explaining the product using the
ここでは、タブレット端末20の制御部21は、説明義務リストの特定処理を実行する(ステップS2−1)。具体的には、制御部21の説明義務確認手段218は、タッチパネルディスプレイ25に表示されている説明資料ファイルの商品コードを特定する。次に、説明義務確認手段218は、データ記憶部22から、この商品コードに関連付けられている説明義務リストを抽出し、確認対象データ領域に記録する。そして、説明義務確認手段218は、確認対象データ領域に記録した説明義務リストに関連付けて、説明開始時刻を記録する。
Here, the
次に、タブレット端末20の制御部21は、説明義務リストの表示処理を実行する(ステップS2−2)。具体的には、制御部21の説明義務確認手段218は、図3に示すように、タッチパネルディスプレイ25上の説明義務リスト表示エリア254に説明義務リストを出力する。この段階では、説明義務リストの全項目が未消込の状態で表示される。
Next, the
次に、タブレット端末20の制御部21は、音声取得処理を実行する(ステップS2−3)。具体的には、制御部21のキーワード抽出手段216は、マイク26において集音した音声を取得する。
Next, the
次に、タブレット端末20の制御部21は、キーワード抽出処理を実行する(ステップS2−4)。具体的には、制御部21のキーワード抽出手段216は、取得した音声の音声認識処理を実行して、テキストに変換する。そして、キーワード抽出手段216は、このテキストを音声認識結果として、集音時刻に関連付けて、データ記憶部22の音声認識結果ファイルに記録する。次に、キーワード抽出手段216は、音声認識したテキストにおいて、形態素解析により、テキストに含まれる単語を特定する。そして、キーワード抽出手段216は、説明対象商品の説明義務リスト(確認対象データ領域に記録された説明義務リスト)及びNGワードリストに記録されているキーワードと、音声認識された単語とを比較する。
Next, the
次に、タブレット端末20の制御部21は、説明義務項目かどうかについての判定処理を実行する(ステップS2−5)。具体的には、制御部21のキーワード抽出手段216は、音声認識されたキーワードが、説明義務リストのキーワードとして記録されている場合には、説明義務項目と判定する。
Next, the
説明義務項目と判定した場合(ステップS2−5において「YES」の場合)、タブレット端末20の制御部21は、説明義務リストの消込処理を実行する(ステップS2−6)。具体的には、制御部21の説明義務確認手段218は、データ記憶部22の確認対象データ領域に記録された説明義務リストにおいて、キーワードを検知した確認時刻を記録する。更に、説明義務確認手段218は、タッチパネルディスプレイ25の説明義務リスト表示エリア254に表示された説明義務リストにおいて、特定したキーワードに対応する項目の消込表示を行なう。そして、ステップS2−3の処理に戻る。
If it is determined that the item is an explanation obligation item (in the case of “YES” in step S2-5), the
一方、説明義務項目でないと判定した場合(ステップS2−5において「NO」の場合)、タブレット端末20の制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。具体的には、制御部21のキーワード抽出手段216は、音声認識されたキーワードが、NGワードリストのキーワードとして記録されている場合には、NGワードと判定する。
On the other hand, when it is determined that the item is not an explanation obligation item (in the case of “NO” in step S2-5), the
ここで、NGワードでないと判定した場合(ステップS2−7において「NO」の場合)、タブレット端末20の制御部21は、ステップS2−3以降の処理を繰り返す。
一方、NGワードと判定した場合(ステップS2−7において「YES」の場合)、タブレット端末20の制御部21は、NGワード対応処理を実行する(ステップS2−8)。ここでは、検知したNGワードについては、図6に示すNGワード対応処理を実行するととともに、ステップS2−3以降の処理を繰り返す。
Here, when it determines with it not being an NG word (in the case of "NO" in step S2-7), the
On the other hand, if it is determined as an NG word (“YES” in step S2-7), the
そして、タブレット端末20の制御部21は、定期的に説明義務項目の状況確認処理を実行する。
ここでは、タブレット端末20の制御部21は、説明義務リストの消込状況の取得処理を実行する(ステップS2−9)。具体的には、制御部21の説明義務確認手段218は、確認対象データ領域に記録された説明義務リストにおいて、確認時刻の記録状況を取得する。
And the
Here, the
次に、タブレット端末20の制御部21は、未消込の項目が残っているかどうかについての判定処理を実行する(ステップS2−10)。具体的には、制御部21の説明義務確認手段218は、確認時刻が記録されていない項目がある場合には、未消込の項目があると判定する。
Next, the
未消込の項目が残っていない場合(ステップS2−10において「NO」の場合)、タブレット端末20の制御部21は、説明義務項目の状況確認処理を終了する。
一方、未消込の項目が残っている場合(ステップS2−10において「YES」の場合)、タブレット端末20の制御部21は、時間超過かどうかについての判定処理を実行する(ステップS2−11)。具体的には、制御部21の説明義務確認手段218は、システムタイマから現在時刻を取得し、説明開始時刻から現在時刻までの経過時間を算出する。そして、この経過時間と説明義務通知判定基準時間とを比較し、この基準時間を超過しているかどうかを判定する。
When there is no unapplied item remaining (in the case of “NO” in step S2-10), the
On the other hand, when an unapplied item remains (in the case of “YES” in step S2-10), the
説明義務通知判定基準時間を超過していない場合(ステップS2−11において「NO」の場合)には、説明義務リストの消込状況の取得処理を継続する。
一方、説明義務通知判定基準時間を超過していると判定した場合(ステップS2−11において「YES」の場合)、タブレット端末20の制御部21は、注意喚起処理を実行する(ステップS2−12)。具体的には、制御部21の説明義務確認手段218は、説明義務リストにおいて、説明されていない説明義務項目があることを示したメッセージを、タッチパネルディスプレイ25に出力する。更に、説明義務確認手段218は、バックヤード連絡手段219に対して、バックヤード端末30への連絡を指示する。この場合、バックヤード連絡手段219は、バックヤード端末30に対して、説明状況通知を送信する。この説明状況通知には、未消込の項目に関するデータを含める。管理者は、バックヤード端末30において説明状況を確認する。そして、管理者は、バックヤード端末30を用いて、必要に応じて、タブレット端末20にメッセージを送信する。
If the description obligation notification determination reference time has not been exceeded (in the case of “NO” in step S2-11), the process of acquiring the explanation obligation list consumption state is continued.
On the other hand, when it is determined that the explanation obligation notification determination reference time has been exceeded (in the case of “YES” in step S2-11), the
(NGワード対応処理)
次に、NGワード対応処理を、図6を用いて説明する。このNGワード対応処理は、NGワードを検知した場合に実行される。
(NG word processing)
Next, the NG word handling process will be described with reference to FIG. This NG word handling process is executed when an NG word is detected.
ここでは、タブレット端末20の制御部21は、注意喚起の出力処理を実行する(ステップS3−1)。具体的には、制御部21のNGワード確認手段217は、データ記憶部22の確認対象データ領域に、検知したNGワード及び検知時刻を記録する。次に、NGワード確認手段217は、タッチパネルディスプレイ25に注意喚起画面を出力する。この注意喚起画面には、音声認識により検知したNGワードを含める。更に、この注意喚起画面には、NGワード対応ボタンを含める。NGワードに対して的確な説明に訂正し直した場合や、NGワードの誤検出の場合には、このNGワード対応ボタンを選択する。
Here, the
次に、タブレット端末20の制御部21は、対応済みかどうかについての判定処理を実行する(ステップS3−2)。具体的には、制御部21のNGワード確認手段217は、確認対象データ領域に記録されたNGワードにおいて、対応時刻が記録されていないNGワードが残っているかどうかを確認する。
Next, the
対応時刻が記録されておらず、対応済み入力されていないNGワードが残っている場合(ステップS3−2において「NO」の場合)、タブレット端末20の制御部21は、時間超過かどうかについての判定処理を実行する(ステップS3−3)。具体的には、制御部21のNGワード確認手段217は、システムタイマから現在時刻を取得し、NGワードの検知時刻から現在時刻までの経過時間を算出する。そして、この経過時間とNGワード通知判定基準時間とを比較し、この基準時間を超過しているかどうかを判定する。
When the corresponding time is not recorded and there is an NG word that has not been input and has been input (in the case of “NO” in step S3-2), the
NGワード通知判定基準時間を超過していないと判定した場合(ステップS3−3において「NO」の場合)には、ステップS3−2の処理を継続する。
一方、注意喚起画面においてNGワード対応ボタンが選択され、対応済みと判定した場合(ステップS3−2において「YES」の場合)、タブレット端末20の制御部21は、注意喚起の消去処理を実行する(ステップS3−4)。具体的には、制御部21のNGワード確認手段217は、データ記憶部22の確認対象データ領域に記録されたNGワードに関連付けて対応時刻を記録する。
If it is determined that the NG word notification determination reference time has not been exceeded (“NO” in step S3-3), the process of step S3-2 is continued.
On the other hand, when the NG word corresponding button is selected on the alert screen and it is determined that the correspondence has been completed (in the case of “YES” in step S3-2), the
注意喚起の消去処理を実行した後や、NGワード通知判定基準時間を超過している場合(ステップS3−3において「YES」の場合)、タブレット端末20の制御部21は、バックヤード通知処理を実行する(ステップS3−5)。具体的には、制御部21のNGワード確認手段217は、NGワードの検知時刻を特定し、認識結果ファイルにおいて、この検知時刻前後の所定時間の集音時刻範囲(集音時期)の音声認識結果を抽出する。ここで、対応時刻が記録されているNGワードについては、検知時刻の所定時間前から対応時刻までの音声認識結果を抽出する。そして、NGワード確認手段217は、バックヤード連絡手段219に対して、バックヤード端末30への連絡を指示する。この場合、バックヤード連絡手段219は、バックヤード端末30に対して、NGワード通知を送信する。このNGワード通知には、確認対象データ領域に記録されたNGワードに対する対応状況(検知時刻や対応時刻)や、NGワード確認手段217が抽出した音声認識結果を含める。
After executing the alert deletion process or when the NG word notification determination reference time is exceeded (in the case of “YES” in step S3-3), the
次に、バックヤード端末30は、確認処理を実行する(ステップS3−6)。具体的には、NGワード通知を受信したバックヤード端末30は、ディスプレイにNGワード通知を出力する。この場合、バックヤード端末30を利用している管理者は、タブレット端末20から取得したNGワード通知を確認する。更に、管理者は、タブレット端末20から取得した音声認識結果を閲覧して、NGワードの検知状況や、その後の対応を確認する。
Next, the
次に、バックヤード端末30は、必要に応じてメッセージ送信処理を実行する(ステップS3−7)。具体的には、管理者は、NGワードの検知状況や対応状況を確認して、支援が必要と判断した場合にはメッセージを入力する。この場合、バックヤード端末30は、タブレット端末20に、管理者のメッセージを送信する。
Next, the
次に、タブレット端末20の制御部21は、メッセージ表示処理を実行する(ステップS3−8)。具体的には、制御部21の表示制御手段211は、バックヤード端末30から取得したメッセージを、タッチパネルディスプレイ25の同期エリア251以外に設けられたバックヤードメッセージエリア256に出力する。
Next, the
(バックヤード支援処理)
次に、バックヤード支援処理を、図7を用いて説明する。このバックヤード支援処理は、バックヤードが営業担当者に対して支援を行なう場合に実行される。
(Backyard support processing)
Next, the backyard support process will be described with reference to FIG. This backyard support process is executed when the backyard supports the sales staff.
まず、タブレット端末20の制御部21は、バックヤード支援要請の入力処理を実行する(ステップS4−1)。具体的には、制御部21のバックヤード連絡手段219は、タッチパネルディスプレイ25にバックヤード支援要請ボタン255を表示する。そして、画面操作手段210がバックヤード支援要請ボタン255の選択を検知した場合、バックヤード連絡手段219に対して、バックヤード支援要請の検知を通知する。
First, the
次に、タブレット端末20の制御部21は、説明状況情報の抽出処理を実行する(ステップS4−2)。具体的には、制御部21のバックヤード連絡手段219は、データ記憶部22に記録された音声認識結果ファイルから、所定時間を遡った時刻から現在時刻までの時間範囲の音声認識結果を抽出する。
Next, the
次に、タブレット端末20の制御部21は、バックヤード支援要請の送信処理を実行する(ステップS4−3)。具体的には、制御部21のバックヤード連絡手段219は、バックヤード端末30に、バックヤード支援要請を送信する。このバックヤード支援要請には、データ記憶部22の音声認識結果ファイルから抽出した音声認識結果を含める。
Next, the
次に、バックヤード端末30は、確認処理を実行する(ステップS4−4)。具体的には、バックヤード支援要請を受信したバックヤード端末30は、ディスプレイにバックヤード支援要請を出力する。この場合、バックヤード端末30を利用している管理者は、タブレット端末20から取得した音声認識結果を閲覧して、説明状況を確認する。
Next, the
次に、バックヤード端末30は、メッセージ作成処理を実行する(ステップS4−5)。具体的には、バックヤード端末30は、メッセージ入力画面を表示して、テキスト入力を促す。また、バックヤード端末30は、管理者の音声を、マイクを介して取得し、音声認識してテキストを作成するようにしてもよい。
Next, the
次に、バックヤード端末30は、メッセージ送信処理を実行する(ステップS4−6)。具体的には、バックヤード端末30は、支援メッセージ(支援情報)をタブレット端末20に送信する。この支援メッセージには、音声認識により作成されたテキストを含める。更に、商品説明に利用するファイルを、メッセージとともに送信するようにしてもよい。
Next, the
次に、タブレット端末20の制御部21は、メッセージ出力処理を実行する(ステップS4−7)。具体的には、制御部21の表示制御手段211は、バックヤード端末30から取得したメッセージを、タッチパネルディスプレイ25の同期エリア251以外に設けられたバックヤードメッセージエリア256に出力する。また、バックヤード端末30から、商品説明に利用するファイルを受信した場合には、このファイルのアイコンを、同期エリア251以外の領域に表示する。そして、営業担当者は、このメッセージやファイルを確認して、商品説明を継続する。
Next, the
以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、タブレット端末20の制御部21は、同期エリアの設定処理を実行する(ステップS1−4)。そして、タブレット端末20の制御部21は、同期開始処理(ステップS1−5)、画面同期処理(ステップS1−6)を実行する。無線通信部17を介して画面データを受信したタブレット端末10の制御部11は、画面表示処理を実行する(ステップS1−7)。この画面同期処理は、同期停止処理(ステップS1−9)まで継続される。これにより、親機であるタブレット端末20のタッチパネルディスプレイ25に表示された内容において、必要部分のみを、子機であるタブレット端末10のタッチパネルディスプレイ25に表示させることができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) In the embodiment described above, the
(2)上記実施形態では、タブレット端末10の制御部11は、画面録画処理を実行する(ステップS1−8)。これにより、録画ファイルが記録されるので、顧客に対して行なわれた商品の説明状況を把握することができる。
(2) In the above embodiment, the
(3)上記実施形態では、タブレット端末20の制御部21は、画面上での指示検知処理(ステップS1−11)、指示位置の通知処理(ステップS1−12)を実行する。無線通信部17を介して、ポインタ表示指示を受信したタブレット端末10の制御部11は、ポインタ表示処理を実行する(ステップS1−13)。これにより、営業担当者が同期エリア251において指し示した位置を、顧客はタブレット端末10のタッチパネルディスプレイ15上で把握することができる。
(3) In the said embodiment, the
(4)上記実施形態では、タブレット端末10の制御部11は、画面上での指示検知処理(ステップS1−14)、指示位置の通知処理(ステップS1−15)を実行する。無線通信部27を介して、ポインタ表示指示を受信したタブレット端末20の制御部21は、ポインタ表示処理を実行する(ステップS1−16)。これにより、顧客が同期エリア151において指し示した位置を、営業担当者はタブレット端末20のタッチパネルディスプレイ25上で把握することができる。
(4) In the said embodiment, the
(5)上記実施形態では、タブレット端末20の制御部21は、録音処理を実行する(ステップS1−2)。そして、無線通信部17を介して、録音開始指示を受信したタブレット端末10の制御部11は、録音処理を実行する(ステップS1−3)。これにより、営業担当者や顧客の発言を、手元のタブレット端末(10、20)において録音することができる。そして、この録音ファイルを確認することにより、商品の説明状況を把握することができる。
(5) In the said embodiment, the
(6)上記実施形態では、タブレット端末20の制御部21は、説明義務リストの特定処理(ステップS2−1)、説明義務リストの表示処理(ステップS2−2)を実行する。そして、タブレット端末20の制御部21は、音声取得処理(ステップS2−3)、キーワード抽出処理(ステップS2−4)を実行する。キーワードを用いて説明義務項目と判定した場合(ステップS2−5において「YES」の場合)、タブレット端末20の制御部21は、説明義務リストの消込処理を実行する(ステップS2−6)。これにより、タブレット端末20を利用している営業担当者は、商品説明において説明すべき内容を把握することができる。そして、説明義務項目を考慮して、商品説明を行なうことができる。
(6) In the above embodiment, the
(7)上記実施形態では、タブレット端末20の制御部21は、説明義務リストの消込状況の取得処理を実行する(ステップS2−9)。そして、未消込の項目が残っており、説明義務通知判定基準時間に対して時間超過していると判定した場合(ステップS2−10、S2−11において「YES」の場合)、タブレット端末20の制御部21は、注意喚起処理を実行する(ステップS2−12)。これにより、説明義務がある項目についての説明が遅れている場合には、営業担当者に対して注意喚起することができる。
(7) In the above-described embodiment, the
(8)上記実施形態では、NGワード対応処理において、タブレット端末20の制御部21は、注意喚起の出力処理を実行する(ステップS3−1)。これにより、NGワードが含まれている場合には、営業担当者に注意喚起を行なうことができる。
(8) In the above embodiment, in the NG word handling process, the
更に、タブレット端末20の制御部21は、対応済みかどうかについての判定処理を実行する(ステップS3−2)。注意喚起画面においてNGワード対応ボタンが選択され、対応済みと判定した場合(ステップS3−2において「YES」の場合)、タブレット端末20の制御部21は、注意喚起の消去処理(ステップS3−4)、バックヤード通知処理(ステップS3−5)を実行する。これにより、NGワードに対する対応状況を、バックヤード端末30において確認することができる。
Furthermore, the
(9)上記実施形態では、バックヤード支援処理において、タブレット端末20の制御部21は、バックヤード支援要請の入力処理(ステップS4−1)、説明状況情報の抽出処理(ステップS4−2)、バックヤード支援要請の送信処理(ステップS4−3)を実行する。これにより、営業担当者が支援を希望する場合には、バックヤード端末30に支援要請を行なうことができる。バックヤード端末30においては、音声認識結果を確認することにより、説明状況を把握して、支援を行なうことができる。
(9) In the above embodiment, in the backyard support process, the
(10)上記実施形態では、バックヤード端末30はメッセージ作成処理(ステップS4−5)、メッセージ送信処理(ステップS4−6)を実行し、タブレット端末20はメッセージ出力処理(ステップS4−7)を実行する。これにより、バックヤード端末30を用いて、効率的に支援情報を提供することができる。更に、バックヤード端末30からのメッセージは、同期エリア251以外の領域に表示されるため、顧客に知られることなく、メッセージを確認することができる。
(10) In the above embodiment, the
なお、上記実施形態は、以下の態様に変更してもよい。
・ 上記実施形態では、本願発明を商品説明において適用したが、適用範囲は商品説明に限定されるものではなく、2つのディスプレイを用いた説明に応用することができる。また、第1、第2の端末もタブレット端末に限定されるものでなく、例えばノートパソコン等を用いることができる。
In addition, you may change the said embodiment into the following aspects.
In the above embodiment, the present invention is applied in the product description, but the application range is not limited to the product description, and can be applied to the description using two displays. Further, the first and second terminals are not limited to tablet terminals, and for example, a notebook personal computer can be used.
・ 上記実施形態では、データ記憶部22には、NGワードリストが記録される。ここで、説明資料ファイル毎に、NGワードリストを変更するようにしてもよい。この場合には、商品コードに関連付けてNGワードリストをデータ記憶部22に記録しておく。そして、制御部21は、タッチパネルディスプレイ25に表示された説明資料ファイルの商品コードを用いて、NGワードリストを特定する。このNGワードリストを確認対象データ領域に記録し、制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。これにより、説明内容に応じたNGワードを検知することができる。
In the above embodiment, an NG word list is recorded in the
・ 上記実施形態では、タブレット端末20の制御部21は、画面同期処理を実行する(ステップS1−6)。具体的には、制御部21の画面転送手段213は、同期エリア251に表示されている内容(画面データ)を、無線通信部27を介してタブレット端末10に転送する。これに代えて、タブレット端末10のデータ記憶部12にも説明資料ファイルを格納しておき、この説明資料ファイルを用いて、タブレット端末20の同期エリア251と同期した画面を出力するようにしてもよい。この場合、制御部21は、同期エリア251に表示されている説明資料ファイルのファイル識別子、表示ページ、このページにおいて同期エリア251が設定されている座標に関するデータを含めた同期データを、タブレット端末10に送信する。同期データを受信したタブレット端末10の制御部11は、データ記憶部12に記録されたファイル識別子の説明資料ファイルにおいて、表示ページ、座標により特定される内容を、タッチパネルディスプレイ15上の同期エリア151に表示する。
In the above embodiment, the
・ 上記実施形態のNGワード対応処理において、説明義務項目でないと判定した場合(ステップS2−5において「NO」の場合)、タブレット端末20の制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。ここで、複数のキーワードを組み合わせて、NGワードと判定することも可能である。具体的には、NGワードリストにおいて、NGワードとして、複数のキーワードを組み合わせて記録しておく。例えば、「絶対に」というキーワードと、「儲かる」や「収益」というキーワードを組み合わせておく。そして、制御部21は、NGワードリストに記録されたキーワードの組み合わせに含まれる一語を検出した場合に、この組み合わせに含まれる他語が所定時間内の発言において検知できるかどうかを判定する。そして、所定時間内の発言において、NGワードリストに記録されたキーワードの組み合わせを検出した場合に、NGワード対応処理を実行する(ステップS2−8)。これにより、キーワードの組み合わせにより、使用すべきでない表現を含む発言を検知することができる。
In the NG word handling process of the above embodiment, when it is determined that the item is not an explanation obligation item (in the case of “NO” in step S2-5), the
更に、NGワードかどうかについての判定処理において、キーワードの前後関係を考慮してもよい。この場合、NGワードリストに、キーワードの組み合わせとともに、前後関係を記録しておく。そして、NGワードリストに記録された前後関係の順番でキーワードを検出した場合、NGワード対応処理を実行する(ステップS2−8)。これにより、キーワードの前後関係により、使用すべきでない表現を含む発言を検知することができる。 Further, in the determination process as to whether or not the word is an NG word, the context of keywords may be taken into consideration. In this case, the context is recorded in the NG word list together with the combination of keywords. When keywords are detected in the order of the context recorded in the NG word list, NG word handling processing is executed (step S2-8). Thereby, it is possible to detect an utterance including an expression that should not be used, based on the context of the keyword.
更に、NGワードかどうかについての判定処理において、発言内容における文章構成を考慮してもよい。この場合、音声認識において検出される文章の区切りにより文章構成を特定する。そして、文章構成(例えば、一文)に、NGワードリストに記録されたキーワードの組み合わせが含まれる場合に、NGワード対応処理を実行する(ステップS2−8)。これにより、キーワードの文章構成により、使用すべきでない表現を含む発言を検知することができる。 Furthermore, in the determination process as to whether or not the word is an NG word, the sentence structure in the content of the statement may be considered. In this case, a sentence structure is specified by a sentence break detected in speech recognition. Then, when the combination of keywords recorded in the NG word list is included in the sentence structure (for example, one sentence), an NG word handling process is executed (step S2-8). As a result, it is possible to detect an utterance including an expression that should not be used, based on the keyword sentence structure.
また、これらのNGワードかどうかについての判定を組み合わせて使用することも可能である。この場合には、NGワードリストにおいて、キーワードに関連付けて、判定方法(1語、組み合わせ、前後関係、文章構成等)を特定する情報を記録しておく。 It is also possible to use a combination of these determinations as to whether the word is an NG word. In this case, in the NG word list, information specifying a determination method (one word, combination, context, sentence structure, etc.) is recorded in association with the keyword.
・ 上記実施形態のNGワード対応処理において、説明義務項目でないと判定した場合(ステップS2−5において「NO」の場合)、タブレット端末20の制御部21は、NGワードかどうかについての判定処理を実行する(ステップS2−7)。ここで、NGワードの重み付けにより、対応処理を変更するようにしてもよい。具体的には、NGワードリストにおいて、NGワードに対して重み付け値を記録しておく。そして、重み付け値が小さいNGワードを検出した場合には、制御部21は、第1の対応処理として、タッチパネルディスプレイ25に注意喚起を出力する。一方、重み付け値が大きい場合には、制御部21は、第1の対応処理として、注意喚起の出力、及びバックヤード端末30への通知を行なう。これにより、NGワードの重要性に応じて、臨機応変に対応することができる。
In the NG word handling process of the above embodiment, when it is determined that the item is not an explanation obligation item (in the case of “NO” in step S2-5), the
・ 上記実施形態では、データ記憶部22には、商品コードに関連付けられた説明義務リストが記録されている。これに代えて、説明資料の頁に対応して、説明義務項目を表示するようにしてもよい。この場合には、説明義務リストにおいて、商品コードに関連付けられた説明資料ファイルの頁に対して、説明義務項目のキーワードを設定しておく。そして、タブレット端末20の制御部21は、タッチパネルディスプレイ25上の同期エリア251に表示された説明資料ファイルの頁に対して、説明義務項目を出力する。これにより、説明資料ファイルの各頁の内容に応じて、説明すべき項目を確認することができる。
In the above embodiment, the
・ 上記実施形態のNGワード対応処理において、タブレット端末20の制御部21は、バックヤード通知処理を実行する(ステップS3−5)。ここでは、バックヤード端末30に対して、検知時刻前後の所定の時間範囲の音声認識結果を送信する。また、バックヤード支援処理において、タブレット端末20の制御部21は、説明状況情報の抽出処理を実行する(ステップS4−2)。ここでは、所定時間を遡った時刻から現在時刻までの時間範囲の音声認識結果を抽出する。ここで、音声認識結果の送信に代えて、音声データを送信するようにしてもよい。この場合には、データ記憶部22に記録されている録音ファイルから、所定の時間範囲の音声データを抽出し、バックヤード端末30に送信する。これにより、バックヤード端末30において、音声データにより説明状況を把握することができる。
-In the NG word corresponding | compatible process of the said embodiment, the
・ 上記実施形態では、タブレット端末20の制御部21は、同期エリアの設定処理を実行する(ステップS1−4)。具体的には、タッチパネルディスプレイ25において、同期エリアの始点と終点となる位置をタッチすることにより、両点を対角線上に有する矩形領域を同期エリア251として設定する。この同期エリア上に加えて、同期させないエリアを設けるようにしてもよい。この場合には、タッチパネルディスプレイ25上の同期エリア内において、非同期エリアを指定する。この場合、同期エリア251と同様に、エリアの始点と終点となる位置をタッチすることにより、両点を対角線上に有する矩形領域を非同期エリアとして特定する。また、作図ツールにおけるマーカ機能やブラシ機能等を用いて、塗りつぶされた領域を非同期エリアとして特定するようにしてもよい。そして、この非同期エリアの指定後に、同期開始処理を実行する(ステップS1−5)。これにより、同期エリア251において非同期エリアを設定することにより、タブレット端末10の同期エリア151において非表示にして、相手に見せたくない情報を部分的に隠すことができる。なお、タブレット端末20の同期エリア251においては、非同期エリアの内容を表示してもよいし、非表示にしてもよい。
In the above embodiment, the
・ 上記実施形態では、注意喚起の消去処理を実行した後や、NGワード通知判定基準時間を超過している場合(ステップS3−3において「YES」の場合)、タブレット端末20の制御部21は、バックヤード通知処理を実行する(ステップS3−5)。バックヤードに通知する内容は、これらに限定されるものではない。NGワードを検知した場合にも通知してもよい。また、NGワード通知判定基準時間を超過している場合のみ、通知するようにしてもよい。
In the above embodiment, after executing the alert deletion process or when the NG word notification determination reference time is exceeded (in the case of “YES” in step S3-3), the
10,20…タブレット端末、11,21…制御部、12,22…データ記憶部、15,25…タッチパネルディスプレイ、16,26…マイク、17,27…無線通信部、151,251…同期エリア、110…画面操作手段、111…表示制御手段、113…録画手段、114…ポインタ転送手段、115…録音手段、210…画面操作手段、211…表示制御手段、212…同期エリア設定手段、213…画面転送手段、214…ポインタ転送手段、215…録音手段、216…キーワード抽出手段、217…NGワード確認手段、218…説明義務確認手段、219…バックヤード連絡手段、30…バックヤード端末。
DESCRIPTION OF
Claims (8)
前記第1の端末と通信を行なうとともに、第2のディスプレイを備えた第2の端末とから構成された説明支援システムであって、
前記第1のディスプレイに説明資料ファイルを表示する手段と、
前記第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する手段と、
前記同期表示領域に表示された内容を含めた同期画面を、前記第2のディスプレイに表示する手段と
を備えたことを特徴とする説明支援システム。 A first terminal with a first display;
An explanation support system comprising a second terminal that communicates with the first terminal and includes a second display,
Means for displaying an explanatory material file on the first display;
Means for identifying a synchronous display area designated by a user in the first display;
An explanation support system comprising: means for displaying on the second display a synchronization screen including contents displayed in the synchronization display area.
前記第2のディスプレイに表示された同期画面をキャプチャした画像データを、表示時刻情報に関連付けて、前記録画データ記憶手段に記録する手段を備えたことを特徴とする請求項1に記載の説明支援システム。 A recording data storage means for recording the image data in association with the display time information;
The explanation support according to claim 1, further comprising means for recording image data obtained by capturing the synchronization screen displayed on the second display in the recorded data storage means in association with display time information. system.
前記第2のディスプレイにおいて、前記同期画面内で前記第1ポインタ位置に対応する位置に第1ポインタ表示を出力することを特徴とする請求項1又は2に記載の説明支援システム。 Means for identifying a first pointer position designated in the synchronous display area in the first display;
3. The explanation support system according to claim 1, wherein the second display outputs a first pointer display at a position corresponding to the first pointer position in the synchronization screen.
前記第1のディスプレイにおいて、前記同期表示領域内で前記第2ポインタ位置に対応する位置に第2ポインタ表示を出力することを特徴とする請求項1〜3のいずれか一つに記載の説明支援システム。 Means for identifying a second pointer position designated in the synchronization screen in the second display;
4. The explanation support according to claim 1, wherein the first display outputs a second pointer display at a position corresponding to the second pointer position in the synchronous display area. system.
録音時刻情報に関連付けて、音声データを記録する録音データ記憶手段を更に備え、
前記第1の端末において取得した音声データを、録音時刻情報に関連付けて、前記録音データ記憶手段に記録する手段と、
前記第1の端末において、バックヤードへの支援要請入力が行なわれた場合、前記録音データ記憶手段から前記支援要請入力が行なわれた時刻に対して所定時間範囲内の音声データを抽出し、
前記音声データを前記バックヤード端末に送信する手段と、
前記バックヤード端末から支援情報を受信した前記第1の端末は、前記第1のディスプレイに前記支援情報を出力することを特徴とする請求項1〜4のいずれか一つに記載の説明支援システム。 The first terminal is connected to a backyard terminal via a network;
A recording data storage means for recording audio data in association with the recording time information is further provided.
Means for recording audio data acquired in the first terminal in the recording data storage means in association with recording time information;
In the first terminal, when support request input to the backyard is performed, voice data within a predetermined time range is extracted from the recording data storage means with respect to the time when the support request input is performed,
Means for transmitting the audio data to the backyard terminal;
The explanation support system according to any one of claims 1 to 4, wherein the first terminal that has received support information from the backyard terminal outputs the support information to the first display. .
前記第1の端末と通信を行なうとともに、第2のディスプレイを備えた第2の端末とから構成された説明支援システムを用いて、説明支援を行なう方法であって、
前記第1の端末が、
前記第1のディスプレイに説明資料ファイルを表示する段階と、
前記第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する段階と、
前記同期表示領域に表示された内容を含めた同期画面を、前記第2のディスプレイに表示する段階と
を実行することを特徴とする説明支援方法。 A first terminal with a first display;
A method for performing explanation support using an explanation support system configured to communicate with the first terminal and to be configured with a second terminal having a second display,
The first terminal is
Displaying an explanatory material file on the first display;
Identifying a synchronous display area designated by a user on the first display;
And a step of displaying a synchronization screen including contents displayed in the synchronization display area on the second display.
前記第1の端末と通信を行なうとともに、第2のディスプレイを備えた第2の端末とから構成された説明支援システムを用いて、説明支援を行なうプログラムであって、
前記第1の端末を、
前記第1のディスプレイに説明資料ファイルを表示する手段、
前記第1のディスプレイにおいて、利用者によって指定された同期表示領域を特定する手段、
前記同期表示領域に表示された内容を含めた同期画面を、前記第2のディスプレイに表示する手段
として機能させることを特徴とする説明支援プログラム。 A first terminal with a first display;
A program for performing explanation support using an explanation support system configured to communicate with the first terminal and to be configured with a second terminal having a second display,
The first terminal;
Means for displaying an explanation material file on the first display;
Means for identifying a synchronous display area designated by a user in the first display;
An explanation support program for causing a synchronization screen including contents displayed in the synchronization display area to function as means for displaying on the second display.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011160625A JP2013025608A (en) | 2011-07-22 | 2011-07-22 | Explanation support system, explanation support method and explanation support program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011160625A JP2013025608A (en) | 2011-07-22 | 2011-07-22 | Explanation support system, explanation support method and explanation support program |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014085640A Division JP5882388B2 (en) | 2014-04-17 | 2014-04-17 | Explanation support system and explanation support method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013025608A true JP2013025608A (en) | 2013-02-04 |
Family
ID=47783878
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011160625A Pending JP2013025608A (en) | 2011-07-22 | 2011-07-22 | Explanation support system, explanation support method and explanation support program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013025608A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014182195A (en) * | 2013-03-18 | 2014-09-29 | Seiko Epson Corp | Projector, projection system, and control method of projector |
| JP2015219783A (en) * | 2014-05-19 | 2015-12-07 | 東芝テック株式会社 | Server and program |
| JP2018502346A (en) * | 2014-08-25 | 2018-01-25 | ザ エスエスシージー グループ,エルエルシー | Content management and presentation system and method |
| JP2019020595A (en) * | 2017-07-18 | 2019-02-07 | 株式会社富士通アドバンストエンジニアリング | Display control program, display control method, and display control device |
| JP2020024444A (en) * | 2019-10-17 | 2020-02-13 | シャープ株式会社 | Information processing system, information processing program and information processing method |
| WO2020153109A1 (en) * | 2019-01-22 | 2020-07-30 | 株式会社インタラクティブソリューションズ | Presentation assistance device for calling attention to words that are forbidden to speak |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03119478A (en) * | 1989-10-03 | 1991-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Shared screen control system |
| JPH06110416A (en) * | 1992-09-28 | 1994-04-22 | Ricoh Co Ltd | Sales support device |
| JPH11119968A (en) * | 1997-10-08 | 1999-04-30 | Hitachi Electron Service Co Ltd | Information processor |
| JP2000339130A (en) * | 1999-05-31 | 2000-12-08 | Casio Comput Co Ltd | Display control device and recording medium recording display control program |
| JP2001034577A (en) * | 2000-01-01 | 2001-02-09 | Cast:Kk | Remote support method |
| JP2002008052A (en) * | 2000-06-22 | 2002-01-11 | Pfu Ltd | Presentation system and recording medium |
| JP2006107044A (en) * | 2004-10-04 | 2006-04-20 | Oki Consulting Solutions Co Ltd | Conversation recording device and conversation recording method |
| JP2008123447A (en) * | 2006-11-15 | 2008-05-29 | Mitsubishi Electric Information Systems Corp | Operator business support system |
| JP2010514072A (en) * | 2006-12-18 | 2010-04-30 | アベル・デイビス | Apparatus, system, and method for presenting images in a multiple display environment |
| JP2010176250A (en) * | 2009-01-28 | 2010-08-12 | Chugoku Electric Power Co Inc:The | Presentation system |
-
2011
- 2011-07-22 JP JP2011160625A patent/JP2013025608A/en active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03119478A (en) * | 1989-10-03 | 1991-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Shared screen control system |
| JPH06110416A (en) * | 1992-09-28 | 1994-04-22 | Ricoh Co Ltd | Sales support device |
| JPH11119968A (en) * | 1997-10-08 | 1999-04-30 | Hitachi Electron Service Co Ltd | Information processor |
| JP2000339130A (en) * | 1999-05-31 | 2000-12-08 | Casio Comput Co Ltd | Display control device and recording medium recording display control program |
| JP2001034577A (en) * | 2000-01-01 | 2001-02-09 | Cast:Kk | Remote support method |
| JP2002008052A (en) * | 2000-06-22 | 2002-01-11 | Pfu Ltd | Presentation system and recording medium |
| JP2006107044A (en) * | 2004-10-04 | 2006-04-20 | Oki Consulting Solutions Co Ltd | Conversation recording device and conversation recording method |
| JP2008123447A (en) * | 2006-11-15 | 2008-05-29 | Mitsubishi Electric Information Systems Corp | Operator business support system |
| JP2010514072A (en) * | 2006-12-18 | 2010-04-30 | アベル・デイビス | Apparatus, system, and method for presenting images in a multiple display environment |
| JP2010176250A (en) * | 2009-01-28 | 2010-08-12 | Chugoku Electric Power Co Inc:The | Presentation system |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014182195A (en) * | 2013-03-18 | 2014-09-29 | Seiko Epson Corp | Projector, projection system, and control method of projector |
| JP2015219783A (en) * | 2014-05-19 | 2015-12-07 | 東芝テック株式会社 | Server and program |
| JP2018502346A (en) * | 2014-08-25 | 2018-01-25 | ザ エスエスシージー グループ,エルエルシー | Content management and presentation system and method |
| US10856123B2 (en) | 2014-08-25 | 2020-12-01 | The Sscg Group, Llc | Content management and presentation systems and methods |
| JP2019020595A (en) * | 2017-07-18 | 2019-02-07 | 株式会社富士通アドバンストエンジニアリング | Display control program, display control method, and display control device |
| WO2020153109A1 (en) * | 2019-01-22 | 2020-07-30 | 株式会社インタラクティブソリューションズ | Presentation assistance device for calling attention to words that are forbidden to speak |
| JP2020119112A (en) * | 2019-01-22 | 2020-08-06 | 株式会社インタラクティブソリューションズ | Presentation support apparatus for calling attention to prohibited term |
| US11373638B2 (en) | 2019-01-22 | 2022-06-28 | Interactive Solutions Corp. | Presentation assistance device for calling attention to words that are forbidden to speak |
| JP2020024444A (en) * | 2019-10-17 | 2020-02-13 | シャープ株式会社 | Information processing system, information processing program and information processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5329610B2 (en) | Explanation support system, explanation support method, and explanation support program | |
| JP2013025608A (en) | Explanation support system, explanation support method and explanation support program | |
| CN101441548B (en) | Touch screen processing method, system and mobile terminal | |
| TW200928892A (en) | Electronic apparatus and operation method thereof | |
| CN102968839A (en) | Self-service paperless arranging system | |
| CN109314735A (en) | User interface for making phone calls | |
| CN103927081A (en) | Method and device for processing notification events | |
| CN109992174A (en) | Information processing method and terminal device | |
| KR20170130417A (en) | Mobile terminal and control method thereof | |
| JP5882388B2 (en) | Explanation support system and explanation support method | |
| CN109976606A (en) | Information display method, mobile terminal | |
| JP5244945B2 (en) | Document display system, document display method, and document display program | |
| JP5758865B2 (en) | Information display device, terminal device, information display system, and program | |
| CN105745988B (en) | Short message processing method for mobile terminal and mobile terminal | |
| US20140372907A1 (en) | Gesture-based construction project collaboration system | |
| JP6466363B2 (en) | Fixtures | |
| TW201145171A (en) | Systems and methods for interface management | |
| CN203055398U (en) | Human-computer interaction showing stand based on touch screen marketing system | |
| CN109508132A (en) | The method, apparatus and electronic equipment of page info are provided | |
| JP2004265294A (en) | Web system for providing daily special menu, store information, and advertisement | |
| CN107247541A (en) | A kind of information processing method and electronic equipment | |
| JP2011028409A (en) | Touch panel type information processing terminal and key input method | |
| CN110045897A (en) | A kind of information display method and terminal device | |
| JP2005346711A (en) | Information providing method | |
| KR101255977B1 (en) | Gesture based collaboration system for construction site |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130426 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130521 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130719 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131118 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140121 |