JP2010085790A - 会話学習支援システム、会話学習支援方法およびプログラム - Google Patents
会話学習支援システム、会話学習支援方法およびプログラム Download PDFInfo
- Publication number
- JP2010085790A JP2010085790A JP2008255773A JP2008255773A JP2010085790A JP 2010085790 A JP2010085790 A JP 2010085790A JP 2008255773 A JP2008255773 A JP 2008255773A JP 2008255773 A JP2008255773 A JP 2008255773A JP 2010085790 A JP2010085790 A JP 2010085790A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- data
- content
- conversation learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000004044 response Effects 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 28
- 230000002452 interceptive effect Effects 0.000 abstract description 14
- 238000012552 review Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 15
- 238000013500 data storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000013523 data management Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
【課題】一人(無人)でかつインタラクティブな会話学習(支援)を行える、会話学習支援システム、会話学習支援方法およびプログラムを提供する。
【解決手段】会話学習支援装置1は、音声記憶部2、音声出力部3、音声入力部4、表示部5、入力部6、制御部7、スピーカ8、マイク9、表示装置10、入力装置11とから構成される。会話学習支援装置1は、制御部7の指示により、動作が制御される。音声記憶部2は、学習内容に合わせた複数のデータを記憶・保存する。データは、リスニング内容、発話設定、質問内容とその選択肢、とから構成される。ユーザが選択する選択肢により次に学習すべきデータが決められ、学習が進められる。
【選択図】図1
【解決手段】会話学習支援装置1は、音声記憶部2、音声出力部3、音声入力部4、表示部5、入力部6、制御部7、スピーカ8、マイク9、表示装置10、入力装置11とから構成される。会話学習支援装置1は、制御部7の指示により、動作が制御される。音声記憶部2は、学習内容に合わせた複数のデータを記憶・保存する。データは、リスニング内容、発話設定、質問内容とその選択肢、とから構成される。ユーザが選択する選択肢により次に学習すべきデータが決められ、学習が進められる。
【選択図】図1
Description
本発明は、会話学習支援システム、会話学習支援方法およびプログラムに関する。
コンピュータを用いて外国語の学習を支援する技術がある。例えば、特許文献1には、 自分のペースで且つ場所を選ばずに外国語の発音及び聞き取りの練習ができる外国語学習方法が記載されている。特許文献1の技術は、外国語単語データ及び外国語文章データが格納された外国語の供給者側端末と、音声を出力可能な学習者側端末とがインターネットを介して接続され、供給者が供給者側端末を介してインターネット上に外国語学習のホームページを開設しており、学習者側端末がホームページにアクセスすることにより、学習者側端末が、供給者側端末から送信された外国語単語データ又は外国語文章データに基づく音声を出力する。
また特許文献2には、サーバと通信回路を介して接続される端末装置を利用する遠隔教育システムが記載されている。特許文献2の技術では、端末装置は、サーバから送信される課題データを再生し、課題データに基づいて利用者が復唱した復唱データをサーバに送信すると共に、サーバから送信される復唱データに対する評価結果を取得し得るよう構成される。サーバは、端末装置に課題データを送信し、課題データに対する復唱データを端末装置から受信すると共に、復唱データに対する評価を行い、その評価結果を端末装置に送信し得るよう構成される。
特許文献3には、外国語の発音を学習する学習者を支援する技術が記載されている。特許文献3の技術は、発音評価サービスにおいては、各生徒が生徒端末から自らの音声情報をDSPサーバ装置へ送信すると、その音声情報を基に特定した習熟レベルがDSPサーバ装置へ蓄積される。練習相手紹介サービスにおいては、DSPサーバ装置が、同じ習熟レベルの生徒端末同士をマッチングし、それら両端末間での音声情報のやり取りを制御する。
特許文献4は、ユーザの習得レベルに応じた学習コンテンツを提供することを可能にするとともに、提供するコンテンツの画一化を回避する技術が記載されている。語学学習用の複数の学習コンテンツを記憶し学習者からの要求に応じて何れかの学習コンテンツを返信する学習支援装置に、返信するべき学習コンテンツを指定することなく送信要求が為された場合には、その学習者が直近に学習した学習コンテンツの難易度および他の学習者による利用頻度に応じて絞り込まれた1つの学習コンテンツを返信させる。
特許文献5には、学習者の習熟度レベルを客観的に、しかも自動的に設定する語学用教育装置が記載されている。特許文献5の技術は、比較判定基準用の音声データと、学習者への指示となる非音声データを記憶し、非音声データを表示して学習者に指示を与える。音声入力装置により入力された学習者の音声をデータとして記憶し、比較判定基準用の音声データと比較判定を行う。そして、学習者の習熟度にあった難易度及び/又はテンポのレベルを自動的に設定する。
音声を伴う無人型の会話学習支援システムにおいては、リスニングを主体としてリピーティングやシャドウイングを行わせる教材のみが提供されている。対話型(インタラクティブ)の会話学習支援システムでは、講師が直接または通信ネットワークを介して応対することが行われている。
リスニング、リピーティングもしくはシャドウイング、または、応答音声を録音するだけの一人で行う無人型の会話学習支援システムでは、対話型の(インタラクティブな)会話学習はできない。インタラクティブな会話学習支援には、講師がその時間拘束され、一人の講師について同時に学習できる人数がごく少数に限られる。そのため、インタラクティブな会話学習は一般に高額であり、学習できる時間が限定される。
本発明は、上述の事情に鑑みてなされたものであり、一人(無人)でかつインタラクティブな会話学習(支援)を行える、会話学習支援システム、会話学習支援方法およびプログラムを提供することを目的とする。
本発明の第1の観点に係る会話学習支援システムは、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段と、
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする。
少なくとも1つの文を構成する音声データを記憶する音声記憶手段と、
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする。
本発明の第2の観点に係る会話学習支援方法は、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする。
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする。
本発明の第3の観点に係るプログラムは、コンピュータに、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とする。
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とする。
本発明によれば、一人(無人)でかつインタラクティブな会話学習(支援)を行うことができる。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。
(実施の形態1)
図1は、本発明の実施の形態1に係る会話学習支援装置の構成例を示すブロック図である。会話学習支援装置1は、音声記憶部2、音声出力部3、音声入力部4、表示部5、入力部6、制御部7、スピーカ8、マイク9、表示装置10、およびキーボードなどの入力装置11とから構成される。制御部7からの指示により、音声記憶部2のデータをもとに、音声出力部3、音声入力部4、表示部5、入力部6、は制御される。また、それぞれに対応するスピーカ8、マイク9、表示装置10、および入力装置11も制御される。
図1は、本発明の実施の形態1に係る会話学習支援装置の構成例を示すブロック図である。会話学習支援装置1は、音声記憶部2、音声出力部3、音声入力部4、表示部5、入力部6、制御部7、スピーカ8、マイク9、表示装置10、およびキーボードなどの入力装置11とから構成される。制御部7からの指示により、音声記憶部2のデータをもとに、音声出力部3、音声入力部4、表示部5、入力部6、は制御される。また、それぞれに対応するスピーカ8、マイク9、表示装置10、および入力装置11も制御される。
音声記憶部2は、音声で再生するデータから構成されたリスニングの内容を含むデータを記憶・保存する。
音声出力部3は、制御部7からの指示により、音声記憶部2に保存されたデータをデジタル・アナログ変換し、リスニング内容をスピーカ8から出力する。音声入力部4は、制御部7からの指示により、アナログ・デジタル変換し、マイク9から音声信号を入力する。制御部7では、音声入力部4へ入力の開始や停止などの制御も行われる。
表示部5は、制御部7からの指示により、音声記憶部2に保存されたデータを文字や絵などで表示装置10に表示する。入力部6は、制御部7からの指示により、キーボードやマウスなどの入力装置11から入力したデータを制御部7に伝達する。
この会話学習支援装置1を使用して学習する学習者のことをユーザと表記する。図2は、ユーザの学習内容の選択メニューを示すブロック図である。図2は、学習内容を語学(ファイルf1)、分野(ファイルf2)、項目(ファイルf3)、内容(ファイルf4)に階層化したメニューで選択する例を示す。ユーザは、ファイルf1から好きな語学を選択する。その下位にあるファイルf2から分野を選択し、さらに下位にあるファイルf3から項目を選択し、ファイルf4で学習する内容を選択する。実施の形態1では、ユーザがトラベル英会話の習得を目的としており、ファイルf1から順に、英語、一般、トラベル、買い物の順で、ファイル選択した場合を例に取り上げる。ユーザのレベルについては、例えばファイルf3の内容を選択する前後で、初級・中級・上級を選択できるようにしておく。
最も下位の階層のファイルfであって、学習内容やレベルで複数に分類されたファイルf4は、それぞれのファイルf4に複数のデータd1、d2、d3、…、dn(以下、データdと総称する)を備える。図3は、音声記憶部2に記憶・保存されている複数のデータdの1つを示すブロック図である。
データdは、リスニング内容p1、発話設定p2、質問内容p3、選択肢p4から構成される。音声データであるリスニング内容p1の例を図4に示す。図4から図7において、内容を日本語で記載しているが、実際は、その会話学習する語学、例えば英語で表現されているものとする。データdは、ユーザがリスニング内容p1に続けて発話し、会話に近い形式で話が展開するように、リスニング内容p1、質問内容p3および選択肢p4を設定することが好ましい。
リスニング内容p1は、複数の文章から構成され、物語形式や会話形式などの形式であり、その文章は音声データをもとに構成される。リスニング内容p1は、制御部7の指示により、音声出力部3を介して、スピーカ8から音声再生される。音声データは、図5(a)の例に示す文や、図5(b)の例に示す単語の形で記憶されており、同じ学習内容で分類されたファイルf内では、データdの番号が異なる場合であっても、元となる音声データが共通する場合がある。リスニング内容p1は、音声データではなく、音声データの格納場所を指示するポインタであってもよい。また、リスニング内容p1は、その最後の部分に、ユーザの発話を促す内容の音声が含まれることが望ましい。
発話設定p2は、リスニング内容p1を出力した後に、ユーザの発話(図6に1例を示す)を入力する時間などを定めたものである。具体的には、リスニング内容p1を聞いたユーザが発話するであろう内容に応じて、その発話の入力に要する時間が発話設定p2で設定されている。リスニング内容p1に関する発話を促すプロンプトが、発話設定p2に含まれていてもよい。プロンプトは、リスニング内容p1の音声再生後に続けて出力される。
発話設定p2には、発話の入力時間の他に、さまざまな設定を付加してもよい。プロンプトを出力後に、表示装置10に、発話の入力時間を設定より長くするときの操作や、リスニング内容p1を繰り返して聞くための操作方法が表示されるように設定してもよい。
質問内容p3はリスニング内容p1に関連しており、ユーザの発話の内容を問う文である。質問内容p3と選択肢p4は対応しており、選択肢p4はユーザの発話するであろう内容を想定した項目となっている。図7は、質問内容p3と選択肢p4の例を示す。選択肢p4の各項目に対応して、次に出力するリスニング内容p1を含むデータdの番号が設定されている。ユーザが選択肢p4のいずれかの項目を選択すると、その項目に対応する次に学習するデータdが決定する。
制御部7は、音声記憶部2のデータdを参照し、それに従って音声出力部3、音声入力部4、表示部5および入力部6を制御する。
学習支援処理のはじめには、図2のファイルfを表示部5から出力し、入力部6でユーザの選択入力を受け付ける。例えば図2に示すように、学習内容の選択メニューは階層構造になっていて、語学、分野、項目、内容を選択された順序で表示する。各階層のメニューが選択されて、内容が決定されると、制御部7は、その内容にあらかじめ定められた最初のデータdを選択する。
最初のデータdが決定されると、制御部7は、そのデータdを記憶部2から読み込み、リスニング内容p1(またはリスニング内容p1で指定される音声データ)を出力するよう、音声出力部3に指令する。リスニング内容p1は、最後に、ユーザの発話を促す内容が含まれることが望ましい。もしくは、ユーザの発話を促す内容を、リスニング内容p1の後に付け加える。このとき、データdのリスニング内容p1の出力に続いて、ユーザの発話を促すプロンプトを出力してもよい。プロンプトの表示は、スピーカ8での音声表示、または、表示装置10での文字による表示がある。
リスニング内容p1、およびプロンプトの出力が終了したら、次に制御部7は、音声入力部4に、ユーザの発話の入力を指示する。制御部7は、発話設定p2を参照して、入力する時間についても音声入力部4に指示する。発話を入力した後に、制御部7は、質問内容p3および選択肢p4を出力するよう音声出力部3または表示部5に指示する。そして、制御部7は、入力装置11により入力された選択肢p4を受け付けるように、入力部6に指示する。入力された選択肢p4を受け、制御部7は、次のデータdを音声記憶部2に指示する。
ファイルf4には、複数のデータdが納められている。例えば、データdがデータdiの選択肢piにより選択されたデータdであるとする。データdでは、選択肢p4で選ぶ選択肢1、2、3、…、nから、次のデータ番号が決まる。図3の例では、選択肢1を選択した場合はデータdk、選択肢2はデータdl、選択肢3はデータdm、選択肢nはデータdnへと進む。選択した選択肢p4の項目により、同じファイルf4の中でも、別々のデータdへ次の会話内容が展開される。ユーザがファイルf4の学習の終了を選択してもよく、ファイルf4内の所定量のデータdを学習したら終了としてもよい。
図7では、質問内容p3と選択肢p4がともに、表示部5から表示装置10に表示されている例を示したが、スピーカ8から音声で出力してもよい。また、質問内容p3と選択肢p4のいづれか一方がスピーカ8表示してもよい。
図8は、実施の形態1に係る会話学習支援装置の動作の一例を示すフローチャートである。ユーザは、会話学習支援装置1を起動し、学習を開始する。まず初めに、制御部7は表示部5に指示し、表示装置10に学習する内容のレベル・内容を表示する(ステップS11)。例えば、図2に示すファイルf1〜f4で階層構造のメニューを表示する。ユーザは、表示装置10を見ながら、入力装置11などで入力し、データdを選択する。例えば、図2に示すファイルf1〜f4で表示されるメニューの項目を選択し、最終的にデータdを選択する。また、予め個人情報を登録しておき、ログインすることでデータdを呼び出せるようにしてもよい。または、その他の方法で、ファイルfからデータdを選択する仕組みを備えておく。
制御部7は、音声記憶部2に記憶・保存されているデータdを参照する(ステップS12)。音声出力部3は、制御部7の指示を受け、リスニング内容p1をスピーカ8から再生する(ステップS13)。リスニング内容p1は、ステップS12で参照しているデータdの、音声データから構成された部分である。そのリスニング内容p1の最後の部分に、内容の続きや、内容に関連した事について、ユーザが続けて発話できるような内容が含まれることが望ましい。リスニング内容p1が終了後、制御部7は、発話を促すプロンプトを表示する(ステップS14)。発話を促すプロンプトは、スピーカ8より音声で再生され、または、表示装置10に表示される。このとき、制御部7の指示により、発話設定p2を参照して、音声入力の時間が決定する。音声入力の開始と終了の際に、制御部7から音声出力部3へ指示を出して、ブザー音を鳴らす仕組みを備えてもよい。この音声入力の開始と終了は、ユーザの発話の開始と終了の時間に等しく、ブザーが鳴ることで、ユーザは発話する時間を知ることができる。制御部7は、表示部5に指示し、音声入力の開始と終了を表示装置10に表示してもよい。
制御部7は、発話設定p2に従って、音声入力部4から、マイク9の音声信号を入力する(ステップS15)。この音声信号には、ユーザがマイク9に向かって発話する音声が含まれる。
次に、制御部7は、データdの質問内容p3と選択肢p4を参照し、ユーザの発話した内容について、選択肢p4を選ぶ形式の選択用の質問を提示する(ステップS16)。制御部7の指示は、音声で出力する場合は音声出力部3へ行い、画面に表示する場合は表示部5へ行う。ユーザは、質問内容p3と選択肢p4と、発話した内容を考慮して、選択肢p4を入力装置11を用いて入力する。
制御部7は、入力装置11で入力された結果、すなわち選択肢p4を入力部6を介して受け付ける(ステップS17)。制御部7は、受け付けた選択肢p4の番号より、次に参照するデータd番号を決定する(ステップS18)。
ステップS18で、会話学習支援1の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に学習継続を問う内容を表示する(ステップS19)。学習継続であれば(ステップS19;YES)、制御部7は、ステップS18で決定したデータdを参照し、ステップS12へ戻り、会話学習支援1を繰り返す。学習継続で無ければ(ステップS19;NO)、終了となる。
以上説明したように、本実施の形態1に係る会話学習支援装置1によれば、ユーザの選択した内容により、学習した内容と関連した内容で、かつ、レベルに合った内容が選択され、次の学習へ進んでいく。その結果、学習するユーザの一人一人に合わせた学習が展開されていく。この会話学習支援装置1を使用することで、一人でインタラクティブな会話学習を行うことができる。さらに、個人での学習となるので、対話型の会話学習と比較すると、好きなときに好きな場所で学習ができるだけでなく、かかる費用も少なくて済む。
(実施の形態2)
図9は、本発明の実施の形態2に係る会話学習支援装置の構成例を示すブロック図である。実施の形態2に係る会話学習支援装置100は、実施の形態1に係る会話学習支援装置1と基本構造は同じであるが、制御部7に、認識部7aと、判定部7bを設けており、録音データ記憶部12と通信部13が追加されている。さらに、ネットワーク50によりサーバ51と通信することができ、データのやりとりが可能である。
図9は、本発明の実施の形態2に係る会話学習支援装置の構成例を示すブロック図である。実施の形態2に係る会話学習支援装置100は、実施の形態1に係る会話学習支援装置1と基本構造は同じであるが、制御部7に、認識部7aと、判定部7bを設けており、録音データ記憶部12と通信部13が追加されている。さらに、ネットワーク50によりサーバ51と通信することができ、データのやりとりが可能である。
録音データ記憶部12は、ユーザが発話した内容を保存する。より詳しくは、制御部7の指示により、ユーザがマイク9を介して音声入力部4に入力した音声を、アナログ・デジタル変換した後に、録音データの形で保存する。通信部13は、主に、音声記憶部2に記憶しているデータdや、録音データ記憶部12に保存された録音データなどを、ネットワーク50を介して通信し、サーバ51と様々なデータのやりとりを行う。
制御部7に設けられた認識部7aは、ユーザがマイク9を介して音声入力部4に入力した発話した音声を認識する。例えば、ある所定の音の大きさ/音圧を超えた場合は、発話が行われた事を認識する。そのとき、音声入力開始時間から、音(発話)を認識するまでの時間の長さを測定したり、発話している間の時間を測定する。発話し始めるまでの時間が短いということは、内容を理解していることや、発話への慣れを意味することが多い。また、発話している時間は文章の長さと比例し、レベルが上がるにつれ、文章の長さが長くなることが多い。
判定部7bは、認識部7aで認識した音圧や、測定した発話時間などによるデータから、ユーザの理解度を判定する。また、認識部7aで音の波形を測定し、判定部7bで音声記憶部2の音声データの単語と測定した音の波形の照合を行ってもよい。類似した音の波形があれば、ユーザの発話に、データdの内容やデータdに関連のある単語が重複していることが分かる。これら複数の判断基準を合わせることで、より、判定の精度が高くなる。
図10は、実施の形態2に係る会話学習支援装置と添削システムの関係を示すブロック図である。会話学習支援装置100は通信部13を備え、ネットワーク50を介してサーバ51と色々なデータをやりとりをすることができる。ここではサーバ51をシステム部60とし、第3者(添削者70)による添削が受けられるしくみについても併せて説明する。
ネットワーク50を介して、通信する先に、システム部60を備える。システム部60は、添削データ管理部61、個人情報管理部62、を備える。添削データ管理部61は、添削者70により採点・添削したデータや、採点・添削される前の録音データなどを管理する。個人情報管理部62は、登録しているユーザの情報、例えば、基本情報であるユーザの名前とIDなどの他に、学習コース内容やレベル、学習したデータdやその成績などのデータを管理する。
会話学習支援装置100の録音データ記憶部12は、ユーザの発話した内容を録音データとして記憶する。通信部13は制御部7の指示を受け、録音データをネットワーク50を介して送信する。システム部60は、録音データを受信し、添削データ管理部61に保存する。第3者である添削者70は、添削データ管理部61にある録音データを採点・添削し、添削済みデータとして、添削データ管理部61に保存する。
ユーザは復習する際に、まず添削済みデータを受信する必要がある。ユーザが選択したコマンドにより、制御部7は、通信部13に、添削済みのデータを受信するように指示を行う。通信部13は、ネットワーク50を介して、システム60の添削データ管理部61から添削済みデータを受信する。制御部7は、録音データ記憶部12に指示し、受信した添削済みデータを保存する。
ネットワーク50側の採点・添削するシステムについては、システム部60側の添削者70が、採点・添削作業を行う。例えば、コールセンターのインバウンド業務のように、届いた録音データを受け取った順に採点・添削をしていく。添削者70は、データd番号と、録音データ、すなわちユーザの発話した内容が届き、その内容について採点・添削をするだけでよく、かかる時間は少なくてすむ。そのため、少ない人数の添削者70で、多くのユーザを担当することができる。
添削済みデータは、例えば、ユーザの発話を文章に起こし、その上に赤ペンで添削したデータでもよく、ユーザの発話に即した文章を正したものを、音声データにしたものでもよい。また、回答の例があってもよい。
データの送信は、学習するデータd毎に行ってもよく、まとめてもよい。添削済みのデータの受信についても、データd毎に行ってもよく、まとめてもよい。送受信のタイミングは任意である。また、録音データ記憶部12に添削済みデータを保存せずに、添削データ管理部61に保存したままにしておき、必要なときにデータ通信を行ってもよい。
採点・添削するシステムを行う場合は、従来の対話型のような会話学習でなくても、ユーザは発話を確認してもらうことができる。会話に近い形態の自由な発想に即した発話、例えば意見や希望、質問や表明など、様々な表現による発話を採点してもらうことが可能である。また、ネットワーク50のシステム部60側では、1人で多数のユーザの採点を行うことができるので、従来の会話学習のように常に対応する必要がない。ユーザにとっても、対話型による会話学習では制限されていた時間や場所を気にすることなく自由に学習できる。
ネットワーク50による通信ができない場合であっても、会話学習支援装置100の録音データ記憶部12に保存した録音データをフレキシブルディスクなどの記録媒体に記録して、添削者70に直接送付することで、採点・添削するシステムを利用することは可能である。この場合、添削済みのデータも、記録媒体を用いて送付される。
図11は、実施の形態2に係る会話学習支援装置の動作の一例を示すフローチャートである。図11(a)は、会話学習支援2についてであり、図11(b)は、復習支援についてである。復習支援は、会話学習支援2に組み込んで動作してもよく、また、独立で動作してもよい。
ユーザは、会話学習支援装置100を起動し、学習を開始する。まず初めに、制御部7は表示部5に指示し、表示装置10に学習する内容のレベル・内容を表示する(ステップS31)。ユーザは、表示装置10を見ながら、入力装置11などで入力し、データdを選択する。例えば、ユーザの入力を受け、制御部7は通信部13を介してネットワーク50で通信し、個人情報管理部62に保存しているユーザの個人情報を呼び出す。そして、前回の学習の続きとなるデータdを参照してもよい。または、その他の方法で、ファイルfからデータdを選択する仕組みを備えておく。
制御部7は、音声記憶部2に記憶・保存されているデータdを参照する(ステップS32)。音声出力部3は、制御部7の指示を受け、リスニング内容p1をスピーカ8から再生する(ステップS33)。リスニング内容p1は、ステップS12で参照しているデータdの、音声データから構成された部分である。そのリスニング内容p1の最後の部分に、内容の続きや、内容に関連した事について、ユーザが続けて発話できるような内容が含まれることが望ましい。リスニング内容p1が終了後、制御部7は、発話を促すプロンプトを表示する(ステップS34)。発話を促すプロンプトは、スピーカ8より音声で再生され、または、表示装置10に表示される。このとき、制御部7の指示により、発話設定p2を参照して、音声入力の時間が決定する。音声入力の開始と終了の際に、制御部7から音声出力部3へ指示を出して、ブザー音を鳴らす仕組みを備えてもよい。この音声入力の開始と終了は、ユーザの発話の開始と終了の時間に等しく、ブザーが鳴ることで、ユーザは発話する時間を知ることができる。制御部7は、表示部5に指示し、音声入力の開始と終了を表示装置10に表示してもよい。
制御部7は、発話設定p2に従って、音声入力部4から、マイク9の音声信号を入力する。制御部7は、入力される発話を、録音データ記憶部12に記憶するよう指示するとともに、認識部7aで、発話までにかかる時間と、発話している時間の計測を行う(ステップS35)。
次に、制御部7は、データdの質問内容p3と選択肢p4を参照し、ユーザの発話した内容について、選択肢p4を選ぶ形式の選択用の質問を提示する(ステップS36)。制御部7の指示は、音声で出力する場合は音声出力部3へ行い、画面に表示する場合は表示部5へ行う。ユーザは、質問内容p3と選択肢p4と、発話した内容を考慮して、選択肢p4を入力装置11を用いて入力する。
制御部7は、入力装置11で入力された結果、すなわち選択肢p4を入力部6を介して受け付ける(ステップS37)。次に、制御部7は、認識部7aで認識した結果をもとに、判定部7bで判定を行う(ステップS38)。ここで判定とは、ユーザの理解度を簡易に判断することを指す。判定の基準となるデータは、ステップS35で測定した発話時間の測定結果、声の大きさ、声のスピードなどのデータである。また、発話の音声の波形を音声データと照合し、重要な単語がどれくらい重複しているかなども判断基準となる場合がある。1つもしくは複数のデータより、判定部7bで、ユーザの理解度を判定する。
制御部7の指示により、ステップS38の判定の結果を、表示装置10に表示してもよい。ユーザは判定結果を確認し、自身の理解度チェックに役立てることができる。このとき、制御部7から表示部5への指示により、リスニング内容p1のあらすじを一緒に表示してもよい。
制御部7は、ステップS37で受け付けた選択肢p4の番号より、次に参照するデータd番号を決定する(ステップS39)。
ステップS39で、会話学習支援2の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に学習継続を問う内容を表示する(ステップS40)。学習継続であれば(ステップS40;YES)、制御部7は、ステップS39で決定したデータdを参照し、ステップS32へ戻り、会話学習支援2を繰り返す。学習継続で無ければ(ステップS40;NO)、終了となる。
制御部7の判定部7bで判定される結果より、ユーザのレベルと学習レベルが一致しているかどうかを判断し、データdの選択に反映させてもよい。ステップS38の判定の結果を、ユーザの理解度として数値化するようにプログラミングしておき、閾値を与える。閾値よりユーザの理解度が上回る場合は、データdのレベルが低い、もしくは学習済み分野として、制御部7は、データdの決定(ステップS39)を行わずに、レベル・内容提示(ステップS31)を行うように表示部5へ指示を出す。また、閾値よりユーザの理解度が下回る場合は、データdのレベルが高いとして、制御部7は同様に、データdの決定(ステップS39)を指示せずに、レベル・内容提示(ステップS31)の指示を行う。この動作を会話学習支援2に組み込むことで、ユーザのレベルに適した学習をより支援しやすくなる。
判定(ステップS38)の結果は、フローチャートには記載していないが、制御部7の指示により、通信部13を介してネットワーク50による通信をしてもよい。個人情報のデータとして、システム部60は個人情報管理部62に情報を蓄積する。例えば、通信部13から送付した個人データ(ユーザの理解度を示すデータなど)の量が、ある一定量に達したとき、制御部7より、個人情報の分析の指示が出される。制御部7の指示を受け、学習上達具合などを表示装置10に表示する。ユーザは、上達度や得意・不得意分野を知ることができたり、他のユーザとの比較ができ、学習意欲の向上や、より効率よい学習計画を立てるのに役に立つ。
以上説明したように、本実施の形態2に係る会話学習支援装置100によれば、ユーザの選択した内容により、学習した内容と関連した内容で、かつ、レベルに合った内容が選択され、次の学習へ進んでいく。その結果、学習するユーザの一人一人に合わせた学習が展開されていく。この会話学習支援装置100を使用することで、一人でインタラクティブな会話学習を行うことができる。さらに、個人での学習となるので、対話型の会話学習と比較すると、好きなときに好きな場所で学習ができるだけでなく、かかる費用も少なくて済む。
復習支援の動作に入る前に、ユーザは、会話学習支援2で学習し、発話を録音データとして、会話学習支援装置100に保存しておく。以下、復習を行うときの、会話学習支援装置100について説明する。図11(b)は、復習支援の動作の一例を示すフローチャートである。
まず初めに、制御部7は録音データ記憶部12にある録音データを参照する(ステップS51)。録音データが複数ある場合は、例えば、まだ復習していない録音データの中で最もデータ作成日が古い録音データを参照してもよい。また、制御部7は、表示部5へ指示し、録音データのリストを表示装置10に表示し、ユーザの入力による選択の指示を受け付けてもよい。
通信部13は、制御部7の指示により、ネットワーク50を介して録音データを送信する(ステップS52)。ネットワーク50を介してサーバ51(ここではシステム部60)に送信された録音データは、第3者である添削者70の採点・添削を受け、添削済みデータとなる。通信部13は、再度、制御部7の指示により、ネットワーク50を介して添削済みデータを受信する(ステップS53)。
次に、制御部7は、ステップS51で参照した録音データ、すなわちユーザの発話を、音声出力部3に出力するように指示し、スピーカ8より音声再生する(ステップS54)。続けて、受信した添削済みデータを出力するように表示部5に指示する。指示を受け、表示部5は表示装置10に表示する(ステップS55)。録音データの再生を何度か繰り返し、その間、添削済みデータを表示してもよい。また、制御部7の指示により、データdのリスニング内容p1を表示してもよい。
添削済みデータが、録音データ(ユーザの発話)が文章に起こされて添削された形式を想定しているが、音声のみのデータであってもよい。その場合は、制御部7は音声出力部3に指示し、スピーカ8から添削済みデータを音声再生する(ステップS55)。
ステップS55で、復習支援の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に復習継続を問う内容を表示する(ステップS56)。復習継続であれば(ステップS56;YES)、制御部7は、ステップS51に戻り、復習支援を繰り返す。復習継続で無ければ(ステップS56;NO)、終了となる。
会話学習支援2と復習支援を独立せずに、学習後にそのまま復習してもよい。その場合、図11(a)の会話学習支援2の、ステップS39とステップS40の間に、図11(b)の復習支援の、ステップS51からステップS55を組み込む。また、学習するデータd毎に、復習をしてもよく、複数のデータdを学習した後に、復習をまとめて行ってもよい。
さらに、実施の形態2では、復習支援の際、その都度、会話学習支援2で録音したデータdを通信している。録音データの通信は、会話学習支援2でユーザの発話を記憶した時点で行ってもよく、添削済みデータを録音データ記憶部12に保存しておいてもよい。
個人情報管理部62で管理するさまざまな個人情報や、録音データおよび添削済みデータのデータ通信および保存については、上記の例に限らない。特に、予め、会話学習支援2で学習したデータdの添削結果を会話学習支援装置100の録音データ記憶部12に保存しておくことで、すぐに復習することが可能である。
なお、会話学習支援装置100は、携帯電話を用いることができる。スピーカ、マイク、画面、キーボード(操作ボタン)が既に備えられており、通信も可能である。日常生活にかかせないもので、多くの人が常に携帯しており、発話や聞くことも当たり前の行動であり、どこでも手軽に学習することができる。また、会話学習支援装置は、小型のモバイルパソコンなどでもよい。発話のためのマイクがない場合であっても、例えば、ヘッドセット型のマイクを用いるなどして、応答音声を記憶することができる。さらに、通信機能がない携帯型ゲーム機の場合であっても、回答した発話内容を、SDカード(Secure Digital Memory Card)などの記憶媒体に録音できればよい。例えば、外出先で録音したデータを、帰宅後にパソコンを用いてネットワークシステムに通信しておく。採点されたデータを取り込み、記憶媒体を用いて、ゲーム機に取り込んでおく。この場合は、発話してすぐに確認することはできないが、外出先でも、発話確認の部分の学習は可能であり、復習することができる。
ここでは、サーバ51をシステム部60として説明しているが、任意に変更および修正が可能である。また、ネットワーク50を用いてデータをやりとりするタイミングや、データを保存する装置、サーバなども、任意に設定できる。データ通信が行いにくい場合などは、予め、データ通信によりデータを取り込んでおき、会話学習支援装置100に保存してもよい。また、データが膨大となる場合や、ユーザの学習レベルや学習内容を常に確認したい場合などは、ネットワークが繋がった状態で学習をすることも可能である。
以上説明したように、実施の形態2に係る会話学習支援装置100によれば、発話した内容を確認でき、マニュアル通りではなく、より実践に近い形の会話学習(支援)をすることができる。また、個人情報を蓄積するなどして、ユーザに合わせた学習計画を立てることができるので、より効率よく学習を進めることができる。さらに、インタラクティブな学習でありながら、1人で複数のユーザに対応できるので、従来より低額で、会話学習(支援)をすることが可能となる。
図12は、図1または図9に示す会話学習支援装置1、100のハードウェア構成の一例を示すブロック図である。会話学習支援装置1、100は、図12に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25および送受信部26を備える。主記憶部22、外部記憶部23、操作部24、表示部25および送受信部26はいずれも内部バス20を介して制御部21に接続されている。
制御部21はCPU(Central Processing Unit)などから構成され、外部記憶部23に記憶されているデータdに従って処理を実行する。
主記憶部22はRAM(Random-Access Memory)などから構成され、外部記憶部23に記憶されているデータdをロードし、制御部21の作業領域として用いられる。
外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)などの不揮発性メモリから構成され、前記の処理を制御部21に行わせるためのプログラムを予め記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。
操作部24はキーボードおよびマウスなどのポインティングデバイスなどと、キーボードおよびポインティングデバイスなどを内部バス20に接続するインターフェース装置から構成されている。操作部24を介して、選択肢p4などのデータが入力され、制御部21に供給される。また、指示の入力を受け付け、制御部21に供給する。
表示部25は、CRT(Cathode Ray Tube)又はLCD(Liquid Crystal Display)などから構成され、質問内容p3などを表示する。
送受信部26は、無線送受信機、無線モデム又は網終端装置、およびそれらと接続するシリアルインターフェース又はLAN(Local Area Network)インターフェースから構成されている。送受信部26を介して、データdや個人情報などをやりとりする。
その他、本発明の好適な変形として、以下の構成が含まれる。
本発明の第1の観点に係る会話学習支援システムについて、
好ましくは、前記音声入力手段で入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定手段を備え、
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
好ましくは、前記音声入力手段で入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定手段を備え、
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
好ましくは、前記音声入力手段で入力された音声を録音する録音手段を備えることを特徴とする。
好ましくは、前記入力手段で入力された前記表示手段で表示した問いに対する回答を参照して、前記録音手段で録音した音声から音声認識する認識手段を備えることを特徴とする。
少なくとも前記音声記憶手段および前記応答音声記憶手段を備えるサーバ装置と、
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする。
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする。
本発明の第2の観点に係る会話学習支援方法について、
好ましくは、前記音声入力ステップで入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定ステップを備え、
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
好ましくは、前記音声入力ステップで入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定ステップを備え、
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
好ましくは、前記音声入力ステップで入力された音声を録音する録音ステップを備えることを特徴とする。
好ましくは、前記入力ステップで入力された、前記表示ステップで表示した問いに対する回答を参照して、前記録音ステップで録音した音声から音声認識する認識ステップを備えることを特徴とする。
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。
会話学習の中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する会話学習支援装置を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで会話学習支援装置を構成してもよい。
また、会話学習支援装置を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
1 会話学習支援装置
2 音声記憶部
3 音声出力部
4 音声入力部
5 表示部
6 入力部
7 制御部
8 スピーカ
9 マイク
12 録音データ記憶部
13 通信部
50 ネットワーク
100 会話学習支援装置
2 音声記憶部
3 音声出力部
4 音声入力部
5 表示部
6 入力部
7 制御部
8 スピーカ
9 マイク
12 録音データ記憶部
13 通信部
50 ネットワーク
100 会話学習支援装置
Claims (10)
- 少なくとも1つの文を構成する音声データを記憶する音声記憶手段と、
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする会話学習支援システム。 - 前記音声入力手段で入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定手段を備え、
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする請求項1に記載の会話学習支援システム。 - 前記音声入力手段で入力された音声を録音する録音手段を備えることを特徴とする請求項1または2に記載の会話学習支援システム。
- 前記入力手段で入力された前記表示手段で表示した問いに対する回答を参照して、前記録音手段で録音した音声から音声認識する認識手段を備えることを特徴とする請求項3に記載の会話学習支援システム。
- 少なくとも前記音声記憶手段および前記応答音声記憶手段を備えるサーバ装置と、
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする請求項1ないし4のいずれか1項に記載の会話学習支援システム。 - 少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする会話学習支援方法。 - 前記音声入力ステップで入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定ステップを備え、
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする請求項6に記載の会話学習支援方法。 - 前記音声入力ステップで入力された音声を録音する録音ステップを備えることを特徴とする請求項6または7に記載の会話学習支援方法。
- 前記入力ステップで入力された、前記表示ステップで表示した問いに対する回答を参照して、前記録音ステップで録音した音声から音声認識する認識ステップを備えることを特徴とする請求項8に記載の会話学習支援方法。
- コンピュータに、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とするプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008255773A JP2010085790A (ja) | 2008-09-30 | 2008-09-30 | 会話学習支援システム、会話学習支援方法およびプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008255773A JP2010085790A (ja) | 2008-09-30 | 2008-09-30 | 会話学習支援システム、会話学習支援方法およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010085790A true JP2010085790A (ja) | 2010-04-15 |
Family
ID=42249792
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008255773A Pending JP2010085790A (ja) | 2008-09-30 | 2008-09-30 | 会話学習支援システム、会話学習支援方法およびプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010085790A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109389975A (zh) * | 2017-08-09 | 2019-02-26 | 联想(新加坡)私人有限公司 | 语音辅助系统、服务器装置、设备、其语音辅助方法 |
-
2008
- 2008-09-30 JP JP2008255773A patent/JP2010085790A/ja active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109389975A (zh) * | 2017-08-09 | 2019-02-26 | 联想(新加坡)私人有限公司 | 语音辅助系统、服务器装置、设备、其语音辅助方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8371857B2 (en) | System, method and device for language education through a voice portal | |
| US20100304342A1 (en) | Interactive Language Education System and Method | |
| JP6705956B1 (ja) | 教育支援システム、方法及びプログラム | |
| KR101004913B1 (ko) | 음성인식을 활용한 컴퓨터 주도형 상호대화의 말하기 능력평가 장치 및 그 평가방법 | |
| KR102498172B1 (ko) | 단말기의 음성인식 기능과 tts 기능을 이용한 상호 음성전달에 의한 대화형 외국어 학습방법 | |
| CN105702102A (zh) | 电子设备以及电子设备的录音再生方法 | |
| KR20120042298A (ko) | 어학 종합 평가 시스템 및 평가 방법 | |
| KR100915681B1 (ko) | 컴퓨터 주도형 대화 장치 및 방법 | |
| JP2003228279A (ja) | 音声認識を用いた語学学習装置、語学学習方法及びその格納媒体 | |
| KR100898104B1 (ko) | 상호 대화식 학습 시스템 및 방법 | |
| JP6166831B1 (ja) | 単語学習支援装置、単語学習支援プログラム、単語学習支援方法 | |
| JP6656529B2 (ja) | 外国語の会話訓練システム | |
| WO2020090857A1 (ja) | 語学力評価方法及び語学力評価システム | |
| JP7530688B1 (ja) | プログラム、コンピュータ、システムおよび情報処理方法 | |
| KR20030065259A (ko) | 음성인식을 이용한 어학학습장치, 어학학습 방법, 및 그저장매체 | |
| JP2010085790A (ja) | 会話学習支援システム、会話学習支援方法およびプログラム | |
| KR20190070682A (ko) | 강의 콘텐츠 구성 및 제공을 위한 시스템 및 방법 | |
| JP2017021245A (ja) | 語学学習支援装置、語学学習支援方法および語学学習支援プログラム | |
| KR102460272B1 (ko) | 모국어 문자기반 원 사이클 온라인 외국어 학습 시스템 및 그 방법 | |
| JP2005031207A (ja) | 発音練習支援システム、発音練習支援方法、発音練習支援プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体 | |
| JP4899383B2 (ja) | 語学学習支援方法 | |
| KR20110064964A (ko) | 지능형 언어 학습 및 발음교정 시스템 | |
| KR101142985B1 (ko) | 발음 교정 장치 및 이를 이용하여 통화기반의 외국어 사전학습 서비스를 제공하는 시스템 | |
| KR101180846B1 (ko) | 음악기반 언어 학습방법 및 이를 활용한 온라인 학습시스템 | |
| KR20210135151A (ko) | 단말기의 음성인식 기능과 tts 기능을 이용한 상호 음성전달에 의한 대화 형 외국어 학습방법 |