JP2010085790A - Conversation learning support system, conversation learning support method, and program - Google Patents
Conversation learning support system, conversation learning support method, and program Download PDFInfo
- Publication number
- JP2010085790A JP2010085790A JP2008255773A JP2008255773A JP2010085790A JP 2010085790 A JP2010085790 A JP 2010085790A JP 2008255773 A JP2008255773 A JP 2008255773A JP 2008255773 A JP2008255773 A JP 2008255773A JP 2010085790 A JP2010085790 A JP 2010085790A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- data
- content
- conversation learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000004044 response Effects 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 28
- 230000002452 interceptive effect Effects 0.000 abstract description 14
- 238000012552 review Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 15
- 238000013500 data storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000013523 data management Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、会話学習支援システム、会話学習支援方法およびプログラムに関する。 The present invention relates to a conversation learning support system, a conversation learning support method, and a program.
コンピュータを用いて外国語の学習を支援する技術がある。例えば、特許文献1には、 自分のペースで且つ場所を選ばずに外国語の発音及び聞き取りの練習ができる外国語学習方法が記載されている。特許文献1の技術は、外国語単語データ及び外国語文章データが格納された外国語の供給者側端末と、音声を出力可能な学習者側端末とがインターネットを介して接続され、供給者が供給者側端末を介してインターネット上に外国語学習のホームページを開設しており、学習者側端末がホームページにアクセスすることにより、学習者側端末が、供給者側端末から送信された外国語単語データ又は外国語文章データに基づく音声を出力する。
There are technologies that support learning foreign languages using computers. For example,
また特許文献2には、サーバと通信回路を介して接続される端末装置を利用する遠隔教育システムが記載されている。特許文献2の技術では、端末装置は、サーバから送信される課題データを再生し、課題データに基づいて利用者が復唱した復唱データをサーバに送信すると共に、サーバから送信される復唱データに対する評価結果を取得し得るよう構成される。サーバは、端末装置に課題データを送信し、課題データに対する復唱データを端末装置から受信すると共に、復唱データに対する評価を行い、その評価結果を端末装置に送信し得るよう構成される。
特許文献3には、外国語の発音を学習する学習者を支援する技術が記載されている。特許文献3の技術は、発音評価サービスにおいては、各生徒が生徒端末から自らの音声情報をDSPサーバ装置へ送信すると、その音声情報を基に特定した習熟レベルがDSPサーバ装置へ蓄積される。練習相手紹介サービスにおいては、DSPサーバ装置が、同じ習熟レベルの生徒端末同士をマッチングし、それら両端末間での音声情報のやり取りを制御する。
特許文献4は、ユーザの習得レベルに応じた学習コンテンツを提供することを可能にするとともに、提供するコンテンツの画一化を回避する技術が記載されている。語学学習用の複数の学習コンテンツを記憶し学習者からの要求に応じて何れかの学習コンテンツを返信する学習支援装置に、返信するべき学習コンテンツを指定することなく送信要求が為された場合には、その学習者が直近に学習した学習コンテンツの難易度および他の学習者による利用頻度に応じて絞り込まれた1つの学習コンテンツを返信させる。
特許文献5には、学習者の習熟度レベルを客観的に、しかも自動的に設定する語学用教育装置が記載されている。特許文献5の技術は、比較判定基準用の音声データと、学習者への指示となる非音声データを記憶し、非音声データを表示して学習者に指示を与える。音声入力装置により入力された学習者の音声をデータとして記憶し、比較判定基準用の音声データと比較判定を行う。そして、学習者の習熟度にあった難易度及び/又はテンポのレベルを自動的に設定する。
音声を伴う無人型の会話学習支援システムにおいては、リスニングを主体としてリピーティングやシャドウイングを行わせる教材のみが提供されている。対話型(インタラクティブ)の会話学習支援システムでは、講師が直接または通信ネットワークを介して応対することが行われている。 In an unattended conversation learning support system with voice, only teaching materials that provide repeating and shadowing mainly for listening are provided. In an interactive conversation learning support system, an instructor responds directly or via a communication network.
リスニング、リピーティングもしくはシャドウイング、または、応答音声を録音するだけの一人で行う無人型の会話学習支援システムでは、対話型の(インタラクティブな)会話学習はできない。インタラクティブな会話学習支援には、講師がその時間拘束され、一人の講師について同時に学習できる人数がごく少数に限られる。そのため、インタラクティブな会話学習は一般に高額であり、学習できる時間が限定される。 In an unattended conversation learning support system that performs listening, repeating or shadowing, or recording a response voice alone, interactive conversation learning cannot be performed. For interactive conversation learning support, the instructor is restricted in time, and only a small number of people can learn about one instructor at the same time. For this reason, interactive conversation learning is generally expensive, and the learning time is limited.
本発明は、上述の事情に鑑みてなされたものであり、一人(無人)でかつインタラクティブな会話学習(支援)を行える、会話学習支援システム、会話学習支援方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a conversation learning support system, a conversation learning support method, and a program that enable one person (unmanned) and interactive conversation learning (support). To do.
本発明の第1の観点に係る会話学習支援システムは、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段と、
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする。
A conversation learning support system according to a first aspect of the present invention includes:
Voice storage means for storing voice data constituting at least one sentence;
Audio output means for reproducing and outputting predetermined audio from the audio data stored in the audio storage means;
A voice input means for inputting a voice of a speaker after outputting the voice by the voice output means;
Display means for displaying a sentence asking the content of the voice of the speaker after inputting the voice by the voice input means;
Input means for accepting an input to answer the question displayed by the display means;
Response voice storage means for classifying possible answers to a sentence asking the content of the speech of the speaker, and storing voice data that responds to each of the classified answers,
In response to the answer input by the input means, response output means for selecting and reproducing the voice data stored in the response voice storage means;
It is characterized by providing.
本発明の第2の観点に係る会話学習支援方法は、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする。
The conversation learning support method according to the second aspect of the present invention includes:
A voice output step of reproducing and outputting a predetermined voice from voice data stored in voice storage means for storing voice data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers , A response output step of selecting and reproducing audio data corresponding to the answer input in the input step;
It is characterized by providing.
本発明の第3の観点に係るプログラムは、コンピュータに、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とする。
A program according to a third aspect of the present invention is stored in a computer.
An audio output step of reproducing and outputting a predetermined audio from audio data stored in audio storage means for storing audio data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers A response output step of selecting and outputting voice data corresponding to the answer input in the input step;
Is executed.
本発明によれば、一人(無人)でかつインタラクティブな会話学習(支援)を行うことができる。 According to the present invention, one person (unmanned) and interactive conversation learning (support) can be performed.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.
(実施の形態1)
図1は、本発明の実施の形態1に係る会話学習支援装置の構成例を示すブロック図である。会話学習支援装置1は、音声記憶部2、音声出力部3、音声入力部4、表示部5、入力部6、制御部7、スピーカ8、マイク9、表示装置10、およびキーボードなどの入力装置11とから構成される。制御部7からの指示により、音声記憶部2のデータをもとに、音声出力部3、音声入力部4、表示部5、入力部6、は制御される。また、それぞれに対応するスピーカ8、マイク9、表示装置10、および入力装置11も制御される。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a conversation learning support apparatus according to
音声記憶部2は、音声で再生するデータから構成されたリスニングの内容を含むデータを記憶・保存する。
The
音声出力部3は、制御部7からの指示により、音声記憶部2に保存されたデータをデジタル・アナログ変換し、リスニング内容をスピーカ8から出力する。音声入力部4は、制御部7からの指示により、アナログ・デジタル変換し、マイク9から音声信号を入力する。制御部7では、音声入力部4へ入力の開始や停止などの制御も行われる。
In response to an instruction from the control unit 7, the
表示部5は、制御部7からの指示により、音声記憶部2に保存されたデータを文字や絵などで表示装置10に表示する。入力部6は、制御部7からの指示により、キーボードやマウスなどの入力装置11から入力したデータを制御部7に伝達する。
The
この会話学習支援装置1を使用して学習する学習者のことをユーザと表記する。図2は、ユーザの学習内容の選択メニューを示すブロック図である。図2は、学習内容を語学(ファイルf1)、分野(ファイルf2)、項目(ファイルf3)、内容(ファイルf4)に階層化したメニューで選択する例を示す。ユーザは、ファイルf1から好きな語学を選択する。その下位にあるファイルf2から分野を選択し、さらに下位にあるファイルf3から項目を選択し、ファイルf4で学習する内容を選択する。実施の形態1では、ユーザがトラベル英会話の習得を目的としており、ファイルf1から順に、英語、一般、トラベル、買い物の順で、ファイル選択した場合を例に取り上げる。ユーザのレベルについては、例えばファイルf3の内容を選択する前後で、初級・中級・上級を選択できるようにしておく。
A learner who learns using the conversation
最も下位の階層のファイルfであって、学習内容やレベルで複数に分類されたファイルf4は、それぞれのファイルf4に複数のデータd1、d2、d3、…、dn(以下、データdと総称する)を備える。図3は、音声記憶部2に記憶・保存されている複数のデータdの1つを示すブロック図である。
The file f4 in the lowest hierarchy and classified into a plurality of learning contents and levels is a plurality of data d1, d2, d3,..., Dn (hereinafter collectively referred to as data d). ). FIG. 3 is a block diagram showing one of a plurality of data d stored / stored in the
データdは、リスニング内容p1、発話設定p2、質問内容p3、選択肢p4から構成される。音声データであるリスニング内容p1の例を図4に示す。図4から図7において、内容を日本語で記載しているが、実際は、その会話学習する語学、例えば英語で表現されているものとする。データdは、ユーザがリスニング内容p1に続けて発話し、会話に近い形式で話が展開するように、リスニング内容p1、質問内容p3および選択肢p4を設定することが好ましい。 Data d is composed of listening content p1, speech setting p2, question content p3, and option p4. An example of the listening content p1 which is audio data is shown in FIG. 4 to 7, the contents are described in Japanese. Actually, it is assumed that the language used for learning the conversation, for example, English, is used. It is preferable that the data d sets the listening content p1, the question content p3, and the option p4 so that the user speaks after the listening content p1 and the story develops in a format close to the conversation.
リスニング内容p1は、複数の文章から構成され、物語形式や会話形式などの形式であり、その文章は音声データをもとに構成される。リスニング内容p1は、制御部7の指示により、音声出力部3を介して、スピーカ8から音声再生される。音声データは、図5(a)の例に示す文や、図5(b)の例に示す単語の形で記憶されており、同じ学習内容で分類されたファイルf内では、データdの番号が異なる場合であっても、元となる音声データが共通する場合がある。リスニング内容p1は、音声データではなく、音声データの格納場所を指示するポインタであってもよい。また、リスニング内容p1は、その最後の部分に、ユーザの発話を促す内容の音声が含まれることが望ましい。
The listening content p1 is composed of a plurality of sentences and is in a form such as a narrative form or a conversation form, and the sentences are composed based on audio data. The listening content p <b> 1 is reproduced as audio from the speaker 8 via the
発話設定p2は、リスニング内容p1を出力した後に、ユーザの発話(図6に1例を示す)を入力する時間などを定めたものである。具体的には、リスニング内容p1を聞いたユーザが発話するであろう内容に応じて、その発話の入力に要する時間が発話設定p2で設定されている。リスニング内容p1に関する発話を促すプロンプトが、発話設定p2に含まれていてもよい。プロンプトは、リスニング内容p1の音声再生後に続けて出力される。 The utterance setting p2 defines a time for inputting a user's utterance (an example is shown in FIG. 6) after outputting the listening content p1. Specifically, according to the content that the user who listened to the listening content p1 will utter, the time required for inputting the utterance is set in the utterance setting p2. The prompt for prompting the utterance regarding the listening content p1 may be included in the utterance setting p2. The prompt is output after the audio content of the listening content p1 is reproduced.
発話設定p2には、発話の入力時間の他に、さまざまな設定を付加してもよい。プロンプトを出力後に、表示装置10に、発話の入力時間を設定より長くするときの操作や、リスニング内容p1を繰り返して聞くための操作方法が表示されるように設定してもよい。
Various settings may be added to the utterance setting p2 in addition to the utterance input time. After outputting the prompt, the
質問内容p3はリスニング内容p1に関連しており、ユーザの発話の内容を問う文である。質問内容p3と選択肢p4は対応しており、選択肢p4はユーザの発話するであろう内容を想定した項目となっている。図7は、質問内容p3と選択肢p4の例を示す。選択肢p4の各項目に対応して、次に出力するリスニング内容p1を含むデータdの番号が設定されている。ユーザが選択肢p4のいずれかの項目を選択すると、その項目に対応する次に学習するデータdが決定する。 The question content p3 is related to the listening content p1, and is a sentence for asking the content of the user's utterance. The question content p3 and the option p4 correspond to each other, and the option p4 is an item assuming content that the user will utter. FIG. 7 shows an example of the question content p3 and the option p4. Corresponding to each item of the choice p4, the number of data d including the listening content p1 to be output next is set. When the user selects any item of the option p4, data d to be learned next corresponding to the item is determined.
制御部7は、音声記憶部2のデータdを参照し、それに従って音声出力部3、音声入力部4、表示部5および入力部6を制御する。
The control unit 7 refers to the data d in the
学習支援処理のはじめには、図2のファイルfを表示部5から出力し、入力部6でユーザの選択入力を受け付ける。例えば図2に示すように、学習内容の選択メニューは階層構造になっていて、語学、分野、項目、内容を選択された順序で表示する。各階層のメニューが選択されて、内容が決定されると、制御部7は、その内容にあらかじめ定められた最初のデータdを選択する。
At the beginning of the learning support process, the file f in FIG. 2 is output from the
最初のデータdが決定されると、制御部7は、そのデータdを記憶部2から読み込み、リスニング内容p1(またはリスニング内容p1で指定される音声データ)を出力するよう、音声出力部3に指令する。リスニング内容p1は、最後に、ユーザの発話を促す内容が含まれることが望ましい。もしくは、ユーザの発話を促す内容を、リスニング内容p1の後に付け加える。このとき、データdのリスニング内容p1の出力に続いて、ユーザの発話を促すプロンプトを出力してもよい。プロンプトの表示は、スピーカ8での音声表示、または、表示装置10での文字による表示がある。
When the first data d is determined, the control unit 7 reads the data d from the
リスニング内容p1、およびプロンプトの出力が終了したら、次に制御部7は、音声入力部4に、ユーザの発話の入力を指示する。制御部7は、発話設定p2を参照して、入力する時間についても音声入力部4に指示する。発話を入力した後に、制御部7は、質問内容p3および選択肢p4を出力するよう音声出力部3または表示部5に指示する。そして、制御部7は、入力装置11により入力された選択肢p4を受け付けるように、入力部6に指示する。入力された選択肢p4を受け、制御部7は、次のデータdを音声記憶部2に指示する。
When the output of the listening content p1 and the prompt is completed, the control unit 7 next instructs the
ファイルf4には、複数のデータdが納められている。例えば、データdがデータdiの選択肢piにより選択されたデータdであるとする。データdでは、選択肢p4で選ぶ選択肢1、2、3、…、nから、次のデータ番号が決まる。図3の例では、選択肢1を選択した場合はデータdk、選択肢2はデータdl、選択肢3はデータdm、選択肢nはデータdnへと進む。選択した選択肢p4の項目により、同じファイルf4の中でも、別々のデータdへ次の会話内容が展開される。ユーザがファイルf4の学習の終了を選択してもよく、ファイルf4内の所定量のデータdを学習したら終了としてもよい。
A plurality of data d is stored in the file f4. For example, it is assumed that the data d is the data d selected by the option pi of the data di. In the data d, the next data number is determined from the
図7では、質問内容p3と選択肢p4がともに、表示部5から表示装置10に表示されている例を示したが、スピーカ8から音声で出力してもよい。また、質問内容p3と選択肢p4のいづれか一方がスピーカ8表示してもよい。
Although FIG. 7 shows an example in which both the question content p3 and the option p4 are displayed on the
図8は、実施の形態1に係る会話学習支援装置の動作の一例を示すフローチャートである。ユーザは、会話学習支援装置1を起動し、学習を開始する。まず初めに、制御部7は表示部5に指示し、表示装置10に学習する内容のレベル・内容を表示する(ステップS11)。例えば、図2に示すファイルf1〜f4で階層構造のメニューを表示する。ユーザは、表示装置10を見ながら、入力装置11などで入力し、データdを選択する。例えば、図2に示すファイルf1〜f4で表示されるメニューの項目を選択し、最終的にデータdを選択する。また、予め個人情報を登録しておき、ログインすることでデータdを呼び出せるようにしてもよい。または、その他の方法で、ファイルfからデータdを選択する仕組みを備えておく。
FIG. 8 is a flowchart showing an example of the operation of the conversation learning support apparatus according to the first embodiment. The user activates the conversation learning
制御部7は、音声記憶部2に記憶・保存されているデータdを参照する(ステップS12)。音声出力部3は、制御部7の指示を受け、リスニング内容p1をスピーカ8から再生する(ステップS13)。リスニング内容p1は、ステップS12で参照しているデータdの、音声データから構成された部分である。そのリスニング内容p1の最後の部分に、内容の続きや、内容に関連した事について、ユーザが続けて発話できるような内容が含まれることが望ましい。リスニング内容p1が終了後、制御部7は、発話を促すプロンプトを表示する(ステップS14)。発話を促すプロンプトは、スピーカ8より音声で再生され、または、表示装置10に表示される。このとき、制御部7の指示により、発話設定p2を参照して、音声入力の時間が決定する。音声入力の開始と終了の際に、制御部7から音声出力部3へ指示を出して、ブザー音を鳴らす仕組みを備えてもよい。この音声入力の開始と終了は、ユーザの発話の開始と終了の時間に等しく、ブザーが鳴ることで、ユーザは発話する時間を知ることができる。制御部7は、表示部5に指示し、音声入力の開始と終了を表示装置10に表示してもよい。
The control unit 7 refers to the data d stored / saved in the voice storage unit 2 (step S12). The
制御部7は、発話設定p2に従って、音声入力部4から、マイク9の音声信号を入力する(ステップS15)。この音声信号には、ユーザがマイク9に向かって発話する音声が含まれる。
The control unit 7 inputs the audio signal of the
次に、制御部7は、データdの質問内容p3と選択肢p4を参照し、ユーザの発話した内容について、選択肢p4を選ぶ形式の選択用の質問を提示する(ステップS16)。制御部7の指示は、音声で出力する場合は音声出力部3へ行い、画面に表示する場合は表示部5へ行う。ユーザは、質問内容p3と選択肢p4と、発話した内容を考慮して、選択肢p4を入力装置11を用いて入力する。
Next, the control unit 7 refers to the question content p3 and the option p4 in the data d, and presents a selection question in a format for selecting the option p4 for the content uttered by the user (step S16). The instruction of the control unit 7 is given to the
制御部7は、入力装置11で入力された結果、すなわち選択肢p4を入力部6を介して受け付ける(ステップS17)。制御部7は、受け付けた選択肢p4の番号より、次に参照するデータd番号を決定する(ステップS18)。
The control unit 7 receives the result input by the
ステップS18で、会話学習支援1の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に学習継続を問う内容を表示する(ステップS19)。学習継続であれば(ステップS19;YES)、制御部7は、ステップS18で決定したデータdを参照し、ステップS12へ戻り、会話学習支援1を繰り返す。学習継続で無ければ(ステップS19;NO)、終了となる。
In step S18, a series of flows of the
以上説明したように、本実施の形態1に係る会話学習支援装置1によれば、ユーザの選択した内容により、学習した内容と関連した内容で、かつ、レベルに合った内容が選択され、次の学習へ進んでいく。その結果、学習するユーザの一人一人に合わせた学習が展開されていく。この会話学習支援装置1を使用することで、一人でインタラクティブな会話学習を行うことができる。さらに、個人での学習となるので、対話型の会話学習と比較すると、好きなときに好きな場所で学習ができるだけでなく、かかる費用も少なくて済む。
As described above, according to the conversation learning
(実施の形態2)
図9は、本発明の実施の形態2に係る会話学習支援装置の構成例を示すブロック図である。実施の形態2に係る会話学習支援装置100は、実施の形態1に係る会話学習支援装置1と基本構造は同じであるが、制御部7に、認識部7aと、判定部7bを設けており、録音データ記憶部12と通信部13が追加されている。さらに、ネットワーク50によりサーバ51と通信することができ、データのやりとりが可能である。
(Embodiment 2)
FIG. 9 is a block diagram showing a configuration example of the conversation learning support apparatus according to
録音データ記憶部12は、ユーザが発話した内容を保存する。より詳しくは、制御部7の指示により、ユーザがマイク9を介して音声入力部4に入力した音声を、アナログ・デジタル変換した後に、録音データの形で保存する。通信部13は、主に、音声記憶部2に記憶しているデータdや、録音データ記憶部12に保存された録音データなどを、ネットワーク50を介して通信し、サーバ51と様々なデータのやりとりを行う。
The recorded
制御部7に設けられた認識部7aは、ユーザがマイク9を介して音声入力部4に入力した発話した音声を認識する。例えば、ある所定の音の大きさ/音圧を超えた場合は、発話が行われた事を認識する。そのとき、音声入力開始時間から、音(発話)を認識するまでの時間の長さを測定したり、発話している間の時間を測定する。発話し始めるまでの時間が短いということは、内容を理解していることや、発話への慣れを意味することが多い。また、発話している時間は文章の長さと比例し、レベルが上がるにつれ、文章の長さが長くなることが多い。
The recognition unit 7 a provided in the control unit 7 recognizes the uttered voice input by the user to the
判定部7bは、認識部7aで認識した音圧や、測定した発話時間などによるデータから、ユーザの理解度を判定する。また、認識部7aで音の波形を測定し、判定部7bで音声記憶部2の音声データの単語と測定した音の波形の照合を行ってもよい。類似した音の波形があれば、ユーザの発話に、データdの内容やデータdに関連のある単語が重複していることが分かる。これら複数の判断基準を合わせることで、より、判定の精度が高くなる。
The
図10は、実施の形態2に係る会話学習支援装置と添削システムの関係を示すブロック図である。会話学習支援装置100は通信部13を備え、ネットワーク50を介してサーバ51と色々なデータをやりとりをすることができる。ここではサーバ51をシステム部60とし、第3者(添削者70)による添削が受けられるしくみについても併せて説明する。
FIG. 10 is a block diagram illustrating the relationship between the conversation learning support apparatus and the correction system according to the second embodiment. The conversation learning
ネットワーク50を介して、通信する先に、システム部60を備える。システム部60は、添削データ管理部61、個人情報管理部62、を備える。添削データ管理部61は、添削者70により採点・添削したデータや、採点・添削される前の録音データなどを管理する。個人情報管理部62は、登録しているユーザの情報、例えば、基本情報であるユーザの名前とIDなどの他に、学習コース内容やレベル、学習したデータdやその成績などのデータを管理する。
A
会話学習支援装置100の録音データ記憶部12は、ユーザの発話した内容を録音データとして記憶する。通信部13は制御部7の指示を受け、録音データをネットワーク50を介して送信する。システム部60は、録音データを受信し、添削データ管理部61に保存する。第3者である添削者70は、添削データ管理部61にある録音データを採点・添削し、添削済みデータとして、添削データ管理部61に保存する。
The recorded
ユーザは復習する際に、まず添削済みデータを受信する必要がある。ユーザが選択したコマンドにより、制御部7は、通信部13に、添削済みのデータを受信するように指示を行う。通信部13は、ネットワーク50を介して、システム60の添削データ管理部61から添削済みデータを受信する。制御部7は、録音データ記憶部12に指示し、受信した添削済みデータを保存する。
When reviewing, the user must first receive corrected data. According to the command selected by the user, the control unit 7 instructs the
ネットワーク50側の採点・添削するシステムについては、システム部60側の添削者70が、採点・添削作業を行う。例えば、コールセンターのインバウンド業務のように、届いた録音データを受け取った順に採点・添削をしていく。添削者70は、データd番号と、録音データ、すなわちユーザの発話した内容が届き、その内容について採点・添削をするだけでよく、かかる時間は少なくてすむ。そのため、少ない人数の添削者70で、多くのユーザを担当することができる。
Regarding the scoring / correcting system on the
添削済みデータは、例えば、ユーザの発話を文章に起こし、その上に赤ペンで添削したデータでもよく、ユーザの発話に即した文章を正したものを、音声データにしたものでもよい。また、回答の例があってもよい。 The corrected data may be, for example, data in which a user's utterance is uttered in a sentence and then corrected with a red pen, or a sentence corrected according to the user's utterance may be converted into voice data. There may also be examples of answers.
データの送信は、学習するデータd毎に行ってもよく、まとめてもよい。添削済みのデータの受信についても、データd毎に行ってもよく、まとめてもよい。送受信のタイミングは任意である。また、録音データ記憶部12に添削済みデータを保存せずに、添削データ管理部61に保存したままにしておき、必要なときにデータ通信を行ってもよい。
The data transmission may be performed for each data d to be learned or may be collected. The reception of the corrected data may be performed for each data d or may be summarized. Transmission / reception timing is arbitrary. Alternatively, the corrected data may be stored in the correction
採点・添削するシステムを行う場合は、従来の対話型のような会話学習でなくても、ユーザは発話を確認してもらうことができる。会話に近い形態の自由な発想に即した発話、例えば意見や希望、質問や表明など、様々な表現による発話を採点してもらうことが可能である。また、ネットワーク50のシステム部60側では、1人で多数のユーザの採点を行うことができるので、従来の会話学習のように常に対応する必要がない。ユーザにとっても、対話型による会話学習では制限されていた時間や場所を気にすることなく自由に学習できる。
When performing a scoring / correcting system, the user can confirm the utterance without using conversational learning as in the conventional interactive type. It is possible to score utterances in various forms such as utterances based on free ideas in a form close to conversation, such as opinions and hopes, questions and expressions. In addition, since the
ネットワーク50による通信ができない場合であっても、会話学習支援装置100の録音データ記憶部12に保存した録音データをフレキシブルディスクなどの記録媒体に記録して、添削者70に直接送付することで、採点・添削するシステムを利用することは可能である。この場合、添削済みのデータも、記録媒体を用いて送付される。
Even when communication via the
図11は、実施の形態2に係る会話学習支援装置の動作の一例を示すフローチャートである。図11(a)は、会話学習支援2についてであり、図11(b)は、復習支援についてである。復習支援は、会話学習支援2に組み込んで動作してもよく、また、独立で動作してもよい。
FIG. 11 is a flowchart illustrating an example of the operation of the conversation learning support apparatus according to the second embodiment. FIG. 11A shows the
ユーザは、会話学習支援装置100を起動し、学習を開始する。まず初めに、制御部7は表示部5に指示し、表示装置10に学習する内容のレベル・内容を表示する(ステップS31)。ユーザは、表示装置10を見ながら、入力装置11などで入力し、データdを選択する。例えば、ユーザの入力を受け、制御部7は通信部13を介してネットワーク50で通信し、個人情報管理部62に保存しているユーザの個人情報を呼び出す。そして、前回の学習の続きとなるデータdを参照してもよい。または、その他の方法で、ファイルfからデータdを選択する仕組みを備えておく。
The user activates the conversation learning
制御部7は、音声記憶部2に記憶・保存されているデータdを参照する(ステップS32)。音声出力部3は、制御部7の指示を受け、リスニング内容p1をスピーカ8から再生する(ステップS33)。リスニング内容p1は、ステップS12で参照しているデータdの、音声データから構成された部分である。そのリスニング内容p1の最後の部分に、内容の続きや、内容に関連した事について、ユーザが続けて発話できるような内容が含まれることが望ましい。リスニング内容p1が終了後、制御部7は、発話を促すプロンプトを表示する(ステップS34)。発話を促すプロンプトは、スピーカ8より音声で再生され、または、表示装置10に表示される。このとき、制御部7の指示により、発話設定p2を参照して、音声入力の時間が決定する。音声入力の開始と終了の際に、制御部7から音声出力部3へ指示を出して、ブザー音を鳴らす仕組みを備えてもよい。この音声入力の開始と終了は、ユーザの発話の開始と終了の時間に等しく、ブザーが鳴ることで、ユーザは発話する時間を知ることができる。制御部7は、表示部5に指示し、音声入力の開始と終了を表示装置10に表示してもよい。
The control unit 7 refers to the data d stored / saved in the voice storage unit 2 (step S32). The
制御部7は、発話設定p2に従って、音声入力部4から、マイク9の音声信号を入力する。制御部7は、入力される発話を、録音データ記憶部12に記憶するよう指示するとともに、認識部7aで、発話までにかかる時間と、発話している時間の計測を行う(ステップS35)。
The control unit 7 inputs the audio signal of the
次に、制御部7は、データdの質問内容p3と選択肢p4を参照し、ユーザの発話した内容について、選択肢p4を選ぶ形式の選択用の質問を提示する(ステップS36)。制御部7の指示は、音声で出力する場合は音声出力部3へ行い、画面に表示する場合は表示部5へ行う。ユーザは、質問内容p3と選択肢p4と、発話した内容を考慮して、選択肢p4を入力装置11を用いて入力する。
Next, the control unit 7 refers to the question content p3 and the option p4 in the data d, and presents a selection question in a format for selecting the option p4 for the content uttered by the user (step S36). The instruction of the control unit 7 is given to the
制御部7は、入力装置11で入力された結果、すなわち選択肢p4を入力部6を介して受け付ける(ステップS37)。次に、制御部7は、認識部7aで認識した結果をもとに、判定部7bで判定を行う(ステップS38)。ここで判定とは、ユーザの理解度を簡易に判断することを指す。判定の基準となるデータは、ステップS35で測定した発話時間の測定結果、声の大きさ、声のスピードなどのデータである。また、発話の音声の波形を音声データと照合し、重要な単語がどれくらい重複しているかなども判断基準となる場合がある。1つもしくは複数のデータより、判定部7bで、ユーザの理解度を判定する。
The control unit 7 receives the result input by the
制御部7の指示により、ステップS38の判定の結果を、表示装置10に表示してもよい。ユーザは判定結果を確認し、自身の理解度チェックに役立てることができる。このとき、制御部7から表示部5への指示により、リスニング内容p1のあらすじを一緒に表示してもよい。
The result of determination in step S38 may be displayed on the
制御部7は、ステップS37で受け付けた選択肢p4の番号より、次に参照するデータd番号を決定する(ステップS39)。 The control unit 7 determines the data d number to be referred to next from the number of the option p4 received in step S37 (step S39).
ステップS39で、会話学習支援2の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に学習継続を問う内容を表示する(ステップS40)。学習継続であれば(ステップS40;YES)、制御部7は、ステップS39で決定したデータdを参照し、ステップS32へ戻り、会話学習支援2を繰り返す。学習継続で無ければ(ステップS40;NO)、終了となる。
In step S39, a series of flows of the
制御部7の判定部7bで判定される結果より、ユーザのレベルと学習レベルが一致しているかどうかを判断し、データdの選択に反映させてもよい。ステップS38の判定の結果を、ユーザの理解度として数値化するようにプログラミングしておき、閾値を与える。閾値よりユーザの理解度が上回る場合は、データdのレベルが低い、もしくは学習済み分野として、制御部7は、データdの決定(ステップS39)を行わずに、レベル・内容提示(ステップS31)を行うように表示部5へ指示を出す。また、閾値よりユーザの理解度が下回る場合は、データdのレベルが高いとして、制御部7は同様に、データdの決定(ステップS39)を指示せずに、レベル・内容提示(ステップS31)の指示を行う。この動作を会話学習支援2に組み込むことで、ユーザのレベルに適した学習をより支援しやすくなる。
Based on the result determined by the
判定(ステップS38)の結果は、フローチャートには記載していないが、制御部7の指示により、通信部13を介してネットワーク50による通信をしてもよい。個人情報のデータとして、システム部60は個人情報管理部62に情報を蓄積する。例えば、通信部13から送付した個人データ(ユーザの理解度を示すデータなど)の量が、ある一定量に達したとき、制御部7より、個人情報の分析の指示が出される。制御部7の指示を受け、学習上達具合などを表示装置10に表示する。ユーザは、上達度や得意・不得意分野を知ることができたり、他のユーザとの比較ができ、学習意欲の向上や、より効率よい学習計画を立てるのに役に立つ。
Although the result of the determination (step S38) is not described in the flowchart, communication by the
以上説明したように、本実施の形態2に係る会話学習支援装置100によれば、ユーザの選択した内容により、学習した内容と関連した内容で、かつ、レベルに合った内容が選択され、次の学習へ進んでいく。その結果、学習するユーザの一人一人に合わせた学習が展開されていく。この会話学習支援装置100を使用することで、一人でインタラクティブな会話学習を行うことができる。さらに、個人での学習となるので、対話型の会話学習と比較すると、好きなときに好きな場所で学習ができるだけでなく、かかる費用も少なくて済む。
As described above, according to the conversation learning
復習支援の動作に入る前に、ユーザは、会話学習支援2で学習し、発話を録音データとして、会話学習支援装置100に保存しておく。以下、復習を行うときの、会話学習支援装置100について説明する。図11(b)は、復習支援の動作の一例を示すフローチャートである。
Before entering the review support operation, the user learns with the
まず初めに、制御部7は録音データ記憶部12にある録音データを参照する(ステップS51)。録音データが複数ある場合は、例えば、まだ復習していない録音データの中で最もデータ作成日が古い録音データを参照してもよい。また、制御部7は、表示部5へ指示し、録音データのリストを表示装置10に表示し、ユーザの入力による選択の指示を受け付けてもよい。
First, the control unit 7 refers to the recorded data stored in the recorded data storage unit 12 (step S51). When there are a plurality of recording data, for example, the recording data with the oldest data creation date may be referred to among the recording data that have not been reviewed. Further, the control unit 7 may instruct the
通信部13は、制御部7の指示により、ネットワーク50を介して録音データを送信する(ステップS52)。ネットワーク50を介してサーバ51(ここではシステム部60)に送信された録音データは、第3者である添削者70の採点・添削を受け、添削済みデータとなる。通信部13は、再度、制御部7の指示により、ネットワーク50を介して添削済みデータを受信する(ステップS53)。
The
次に、制御部7は、ステップS51で参照した録音データ、すなわちユーザの発話を、音声出力部3に出力するように指示し、スピーカ8より音声再生する(ステップS54)。続けて、受信した添削済みデータを出力するように表示部5に指示する。指示を受け、表示部5は表示装置10に表示する(ステップS55)。録音データの再生を何度か繰り返し、その間、添削済みデータを表示してもよい。また、制御部7の指示により、データdのリスニング内容p1を表示してもよい。
Next, the control unit 7 instructs the
添削済みデータが、録音データ(ユーザの発話)が文章に起こされて添削された形式を想定しているが、音声のみのデータであってもよい。その場合は、制御部7は音声出力部3に指示し、スピーカ8から添削済みデータを音声再生する(ステップS55)。
Although the corrected data is assumed to be recorded data (user's utterance) in a sentence and corrected, it may be audio-only data. In that case, the control unit 7 instructs the
ステップS55で、復習支援の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に復習継続を問う内容を表示する(ステップS56)。復習継続であれば(ステップS56;YES)、制御部7は、ステップS51に戻り、復習支援を繰り返す。復習継続で無ければ(ステップS56;NO)、終了となる。
In step S55, the review support flow is completed. The control unit 7 instructs the
会話学習支援2と復習支援を独立せずに、学習後にそのまま復習してもよい。その場合、図11(a)の会話学習支援2の、ステップS39とステップS40の間に、図11(b)の復習支援の、ステップS51からステップS55を組み込む。また、学習するデータd毎に、復習をしてもよく、複数のデータdを学習した後に、復習をまとめて行ってもよい。
The
さらに、実施の形態2では、復習支援の際、その都度、会話学習支援2で録音したデータdを通信している。録音データの通信は、会話学習支援2でユーザの発話を記憶した時点で行ってもよく、添削済みデータを録音データ記憶部12に保存しておいてもよい。
Furthermore, in the second embodiment, the data d recorded by the
個人情報管理部62で管理するさまざまな個人情報や、録音データおよび添削済みデータのデータ通信および保存については、上記の例に限らない。特に、予め、会話学習支援2で学習したデータdの添削結果を会話学習支援装置100の録音データ記憶部12に保存しておくことで、すぐに復習することが可能である。
Various personal information managed by the personal
なお、会話学習支援装置100は、携帯電話を用いることができる。スピーカ、マイク、画面、キーボード(操作ボタン)が既に備えられており、通信も可能である。日常生活にかかせないもので、多くの人が常に携帯しており、発話や聞くことも当たり前の行動であり、どこでも手軽に学習することができる。また、会話学習支援装置は、小型のモバイルパソコンなどでもよい。発話のためのマイクがない場合であっても、例えば、ヘッドセット型のマイクを用いるなどして、応答音声を記憶することができる。さらに、通信機能がない携帯型ゲーム機の場合であっても、回答した発話内容を、SDカード(Secure Digital Memory Card)などの記憶媒体に録音できればよい。例えば、外出先で録音したデータを、帰宅後にパソコンを用いてネットワークシステムに通信しておく。採点されたデータを取り込み、記憶媒体を用いて、ゲーム機に取り込んでおく。この場合は、発話してすぐに確認することはできないが、外出先でも、発話確認の部分の学習は可能であり、復習することができる。
The conversation learning
ここでは、サーバ51をシステム部60として説明しているが、任意に変更および修正が可能である。また、ネットワーク50を用いてデータをやりとりするタイミングや、データを保存する装置、サーバなども、任意に設定できる。データ通信が行いにくい場合などは、予め、データ通信によりデータを取り込んでおき、会話学習支援装置100に保存してもよい。また、データが膨大となる場合や、ユーザの学習レベルや学習内容を常に確認したい場合などは、ネットワークが繋がった状態で学習をすることも可能である。
Here, the
以上説明したように、実施の形態2に係る会話学習支援装置100によれば、発話した内容を確認でき、マニュアル通りではなく、より実践に近い形の会話学習(支援)をすることができる。また、個人情報を蓄積するなどして、ユーザに合わせた学習計画を立てることができるので、より効率よく学習を進めることができる。さらに、インタラクティブな学習でありながら、1人で複数のユーザに対応できるので、従来より低額で、会話学習(支援)をすることが可能となる。
As described above, according to the conversation learning
図12は、図1または図9に示す会話学習支援装置1、100のハードウェア構成の一例を示すブロック図である。会話学習支援装置1、100は、図12に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25および送受信部26を備える。主記憶部22、外部記憶部23、操作部24、表示部25および送受信部26はいずれも内部バス20を介して制御部21に接続されている。
FIG. 12 is a block diagram illustrating an example of a hardware configuration of the conversation learning
制御部21はCPU(Central Processing Unit)などから構成され、外部記憶部23に記憶されているデータdに従って処理を実行する。
The
主記憶部22はRAM(Random-Access Memory)などから構成され、外部記憶部23に記憶されているデータdをロードし、制御部21の作業領域として用いられる。
The
外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)などの不揮発性メモリから構成され、前記の処理を制御部21に行わせるためのプログラムを予め記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。
The
操作部24はキーボードおよびマウスなどのポインティングデバイスなどと、キーボードおよびポインティングデバイスなどを内部バス20に接続するインターフェース装置から構成されている。操作部24を介して、選択肢p4などのデータが入力され、制御部21に供給される。また、指示の入力を受け付け、制御部21に供給する。
The
表示部25は、CRT(Cathode Ray Tube)又はLCD(Liquid Crystal Display)などから構成され、質問内容p3などを表示する。
The
送受信部26は、無線送受信機、無線モデム又は網終端装置、およびそれらと接続するシリアルインターフェース又はLAN(Local Area Network)インターフェースから構成されている。送受信部26を介して、データdや個人情報などをやりとりする。
The transmission /
その他、本発明の好適な変形として、以下の構成が含まれる。 Other suitable modifications of the present invention include the following configurations.
本発明の第1の観点に係る会話学習支援システムについて、
好ましくは、前記音声入力手段で入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定手段を備え、
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
About the conversation learning support system according to the first aspect of the present invention,
Preferably, a determination unit that determines the level of the utterance of the speaker by a predetermined method from the voice input by the voice input unit,
The response output means selects voice data corresponding to the answer input by the input means from the voice data stored in the response voice storage means according to the level of utterance determined by the determination means. Output,
It is characterized by that.
好ましくは、前記音声入力手段で入力された音声を録音する録音手段を備えることを特徴とする。 Preferably, a recording means for recording the voice input by the voice input means is provided.
好ましくは、前記入力手段で入力された前記表示手段で表示した問いに対する回答を参照して、前記録音手段で録音した音声から音声認識する認識手段を備えることを特徴とする。 Preferably, there is provided a recognition means for recognizing a voice from a voice recorded by the recording means with reference to an answer to the question displayed by the display means inputted by the input means.
少なくとも前記音声記憶手段および前記応答音声記憶手段を備えるサーバ装置と、
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする。
A server device comprising at least the voice storage means and the response voice storage means;
A terminal comprising the voice output means, the voice input means, the display means, the input means and the response output means;
It communicates via a network.
本発明の第2の観点に係る会話学習支援方法について、
好ましくは、前記音声入力ステップで入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定ステップを備え、
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
Regarding the conversation learning support method according to the second aspect of the present invention,
Preferably, the method includes a determination step of determining a level of the utterance of the speaker by a predetermined method from the voice input in the voice input step,
In the response output step, voice data corresponding to the answer input in the input step is selected from the voice data stored in the response voice storage means according to the utterance level determined in the determination step. Output,
It is characterized by that.
好ましくは、前記音声入力ステップで入力された音声を録音する録音ステップを備えることを特徴とする。 Preferably, a recording step of recording the voice input in the voice input step is provided.
好ましくは、前記入力ステップで入力された、前記表示ステップで表示した問いに対する回答を参照して、前記録音ステップで録音した音声から音声認識する認識ステップを備えることを特徴とする。 Preferably, the method further comprises a recognition step of recognizing the voice recorded in the recording step with reference to an answer to the question displayed in the display step input in the input step.
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。 In addition, the above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.
会話学習の中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する会話学習支援装置を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで会話学習支援装置を構成してもよい。 The central part of conversation learning can be realized using a normal computer system, not a dedicated system. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, a conversation learning support device that executes the above-described processing may be configured. Further, the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and the conversation learning support device may be configured by being downloaded by a normal computer system.
また、会話学習支援装置を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。 Further, when the conversation learning support device is realized by sharing an OS (operating system) and an application program or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. Also good.
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.
1 会話学習支援装置
2 音声記憶部
3 音声出力部
4 音声入力部
5 表示部
6 入力部
7 制御部
8 スピーカ
9 マイク
12 録音データ記憶部
13 通信部
50 ネットワーク
100 会話学習支援装置
DESCRIPTION OF
Claims (10)
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする会話学習支援システム。 Voice storage means for storing voice data constituting at least one sentence;
Audio output means for reproducing and outputting predetermined audio from the audio data stored in the audio storage means;
A voice input means for inputting a voice of a speaker after outputting the voice by the voice output means;
Display means for displaying a sentence asking the content of the voice of the speaker after inputting the voice by the voice input means;
Input means for accepting an input to answer the question displayed by the display means;
Response voice storage means for classifying possible answers to a sentence asking the content of the speech of the speaker, and storing voice data that responds to each of the classified answers,
In response to the answer input by the input means, response output means for selecting and reproducing the voice data stored in the response voice storage means;
Conversation learning support system characterized by comprising.
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする請求項1に記載の会話学習支援システム。 Determination means for determining the level of the utterance of the speaker by a predetermined method from the voice input by the voice input means;
The response output means selects voice data corresponding to the answer input by the input means from the voice data stored in the response voice storage means according to the level of utterance determined by the determination means. Output,
The conversation learning support system according to claim 1.
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする請求項1ないし4のいずれか1項に記載の会話学習支援システム。 A server device comprising at least the voice storage means and the response voice storage means;
A terminal comprising the voice output means, the voice input means, the display means, the input means and the response output means;
The conversation learning support system according to any one of claims 1 to 4, wherein communication is performed via a network.
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする会話学習支援方法。 A voice output step of reproducing and outputting a predetermined voice from voice data stored in voice storage means for storing voice data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers , A response output step of selecting and reproducing audio data corresponding to the answer input in the input step;
A conversation learning support method characterized by comprising:
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする請求項6に記載の会話学習支援方法。 A determination step of determining a level of the utterance of the speaker by a predetermined method from the voice input in the voice input step;
In the response output step, voice data corresponding to the answer input in the input step is selected from the voice data stored in the response voice storage means according to the utterance level determined in the determination step. Output,
The conversation learning support method according to claim 6.
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とするプログラム。 On the computer,
An audio output step of reproducing and outputting a predetermined audio from audio data stored in audio storage means for storing audio data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers A response output step of selecting and outputting voice data corresponding to the answer input in the input step;
A program characterized by having executed.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008255773A JP2010085790A (en) | 2008-09-30 | 2008-09-30 | Conversation learning support system, conversation learning support method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008255773A JP2010085790A (en) | 2008-09-30 | 2008-09-30 | Conversation learning support system, conversation learning support method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010085790A true JP2010085790A (en) | 2010-04-15 |
Family
ID=42249792
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008255773A Pending JP2010085790A (en) | 2008-09-30 | 2008-09-30 | Conversation learning support system, conversation learning support method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010085790A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109389975A (en) * | 2017-08-09 | 2019-02-26 | 联想(新加坡)私人有限公司 | Voice auxiliary system, server unit, equipment, its voice householder method |
-
2008
- 2008-09-30 JP JP2008255773A patent/JP2010085790A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109389975A (en) * | 2017-08-09 | 2019-02-26 | 联想(新加坡)私人有限公司 | Voice auxiliary system, server unit, equipment, its voice householder method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8371857B2 (en) | System, method and device for language education through a voice portal | |
| US20100304342A1 (en) | Interactive Language Education System and Method | |
| JP6705956B1 (en) | Education support system, method and program | |
| KR101004913B1 (en) | Apparatus for evaluating speech ability of computer-directed interaction using speech recognition and its evaluation method | |
| KR102498172B1 (en) | Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function | |
| CN105702102A (en) | Electronic device and record regeneration method of electronic device | |
| KR20120042298A (en) | Language estimation system and estimating method thereof | |
| KR100915681B1 (en) | Method and apparatus of naturally talking with computer | |
| JP2003228279A (en) | Language learning apparatus using voice recognition, language learning method and storage medium for the same | |
| KR100898104B1 (en) | Interactive Learning Systems and Methods | |
| JP6166831B1 (en) | Word learning support device, word learning support program, and word learning support method | |
| JP6656529B2 (en) | Foreign language conversation training system | |
| WO2020090857A1 (en) | Method and system for evaluating linguistic ability | |
| JP7530688B1 (en) | Program, computer, system and information processing method | |
| KR20030065259A (en) | Apparatus and method of learnning languages by sound recognition and sotring media of it | |
| JP2010085790A (en) | Conversation learning support system, conversation learning support method, and program | |
| KR20190070682A (en) | System and method for constructing and providing lecture contents | |
| JP2017021245A (en) | Language learning support device, language learning support method, and language learning support program | |
| KR102460272B1 (en) | One cycle foreign language learning system using mother toungue and method thereof | |
| JP2005031207A (en) | Pronunciation practice support system, pronunciation practice support method, pronunciation practice support program, and computer-readable recording medium recording the same | |
| JP4899383B2 (en) | Language learning support method | |
| KR20110064964A (en) | Intelligent language learning and pronunciation correction system | |
| KR101142985B1 (en) | Pronunciation correction apparatus, system for providing foreign languag proceding study service using same | |
| KR101180846B1 (en) | Method for Music-based Language Training and On-Line Training System thereof | |
| KR20210135151A (en) | Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function |