[go: up one dir, main page]

JP2010085790A - Conversation learning support system, conversation learning support method, and program - Google Patents

Conversation learning support system, conversation learning support method, and program Download PDF

Info

Publication number
JP2010085790A
JP2010085790A JP2008255773A JP2008255773A JP2010085790A JP 2010085790 A JP2010085790 A JP 2010085790A JP 2008255773 A JP2008255773 A JP 2008255773A JP 2008255773 A JP2008255773 A JP 2008255773A JP 2010085790 A JP2010085790 A JP 2010085790A
Authority
JP
Japan
Prior art keywords
voice
input
data
content
conversation learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008255773A
Other languages
Japanese (ja)
Inventor
Kazuhiro Takahashi
和宏 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008255773A priority Critical patent/JP2010085790A/en
Publication of JP2010085790A publication Critical patent/JP2010085790A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conversation learning support system, a conversation learning support method, and a program, to enable interactive conversation learning (support) by one person (unattended). <P>SOLUTION: This conversation learning support device 1 includes a voice storage part 2, a voice output part 3, a voice input part 4, a display part 5, an input part 6, a control part 7, a speaker 8, a microphone 9, a display device 10, and an input device 11. The operations of the conversation learning support device 1 are controlled as instructed by the control part 7. The voice storage part 2 memorizes and stores a plurality of data tailored to learning contents. The data include listening contents, speaking setting, question contents and their choices. The data which should be learned next is determined by the option selected by a user, and learning is proceeded. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、会話学習支援システム、会話学習支援方法およびプログラムに関する。   The present invention relates to a conversation learning support system, a conversation learning support method, and a program.

コンピュータを用いて外国語の学習を支援する技術がある。例えば、特許文献1には、 自分のペースで且つ場所を選ばずに外国語の発音及び聞き取りの練習ができる外国語学習方法が記載されている。特許文献1の技術は、外国語単語データ及び外国語文章データが格納された外国語の供給者側端末と、音声を出力可能な学習者側端末とがインターネットを介して接続され、供給者が供給者側端末を介してインターネット上に外国語学習のホームページを開設しており、学習者側端末がホームページにアクセスすることにより、学習者側端末が、供給者側端末から送信された外国語単語データ又は外国語文章データに基づく音声を出力する。   There are technologies that support learning foreign languages using computers. For example, Patent Document 1 describes a foreign language learning method in which pronunciation and listening practice of a foreign language can be practiced at your own pace and without choosing a place. The technology of Patent Document 1 is such that a foreign language supplier side terminal storing foreign language word data and foreign language sentence data and a learner side terminal capable of outputting speech are connected via the Internet, A foreign language learning homepage is established on the Internet via the supplier's terminal, and when the learner's terminal accesses the homepage, the learner's terminal sends the foreign language word sent from the supplier's terminal. Output audio based on data or foreign language text data.

また特許文献2には、サーバと通信回路を介して接続される端末装置を利用する遠隔教育システムが記載されている。特許文献2の技術では、端末装置は、サーバから送信される課題データを再生し、課題データに基づいて利用者が復唱した復唱データをサーバに送信すると共に、サーバから送信される復唱データに対する評価結果を取得し得るよう構成される。サーバは、端末装置に課題データを送信し、課題データに対する復唱データを端末装置から受信すると共に、復唱データに対する評価を行い、その評価結果を端末装置に送信し得るよう構成される。   Patent Document 2 describes a remote education system that uses a terminal device connected to a server via a communication circuit. In the technique of Patent Document 2, the terminal device reproduces the assignment data transmitted from the server, transmits the repetition data that the user has read back to the server based on the assignment data, and evaluates the repetition data transmitted from the server. Configured to obtain results. The server is configured to transmit task data to the terminal device, receive repetitive data for the task data from the terminal device, evaluate the repetitive data, and transmit the evaluation result to the terminal device.

特許文献3には、外国語の発音を学習する学習者を支援する技術が記載されている。特許文献3の技術は、発音評価サービスにおいては、各生徒が生徒端末から自らの音声情報をDSPサーバ装置へ送信すると、その音声情報を基に特定した習熟レベルがDSPサーバ装置へ蓄積される。練習相手紹介サービスにおいては、DSPサーバ装置が、同じ習熟レベルの生徒端末同士をマッチングし、それら両端末間での音声情報のやり取りを制御する。   Patent Document 3 describes a technique for supporting a learner who learns pronunciation of a foreign language. According to the technique of Patent Literature 3, in the pronunciation evaluation service, when each student transmits his / her voice information from the student terminal to the DSP server apparatus, the proficiency level specified based on the voice information is stored in the DSP server apparatus. In the practice partner introduction service, the DSP server device matches student terminals having the same proficiency level and controls the exchange of voice information between the two terminals.

特許文献4は、ユーザの習得レベルに応じた学習コンテンツを提供することを可能にするとともに、提供するコンテンツの画一化を回避する技術が記載されている。語学学習用の複数の学習コンテンツを記憶し学習者からの要求に応じて何れかの学習コンテンツを返信する学習支援装置に、返信するべき学習コンテンツを指定することなく送信要求が為された場合には、その学習者が直近に学習した学習コンテンツの難易度および他の学習者による利用頻度に応じて絞り込まれた1つの学習コンテンツを返信させる。   Patent Document 4 describes a technology that makes it possible to provide learning content according to a user's learning level and avoid uniformization of the provided content. When a transmission request is made without specifying a learning content to be returned to a learning support device that stores a plurality of learning contents for language learning and returns any learning content in response to a request from a learner Returns one learning content narrowed down according to the difficulty of the learning content most recently learned by the learner and the frequency of use by other learners.

特許文献5には、学習者の習熟度レベルを客観的に、しかも自動的に設定する語学用教育装置が記載されている。特許文献5の技術は、比較判定基準用の音声データと、学習者への指示となる非音声データを記憶し、非音声データを表示して学習者に指示を与える。音声入力装置により入力された学習者の音声をデータとして記憶し、比較判定基準用の音声データと比較判定を行う。そして、学習者の習熟度にあった難易度及び/又はテンポのレベルを自動的に設定する。   Patent Document 5 describes a language educational device that objectively and automatically sets a learner's proficiency level. The technique of Patent Document 5 stores voice data for comparison determination criteria and non-voice data that is an instruction to the learner, displays the non-voice data, and gives an instruction to the learner. The learner's voice input by the voice input device is stored as data, and compared with voice data for comparison criteria. Then, the difficulty level and / or tempo level suitable for the learner's proficiency level is automatically set.

特開2003−98944号公報JP 2003-98944 A 特開2004−191528号公報JP 2004-191528 A 特開2006−195094号公報JP 2006-195094 A 特開2007−193093号公報JP 2007-193093 A 特開平07−168520号公報Japanese Patent Laid-Open No. 07-168520

音声を伴う無人型の会話学習支援システムにおいては、リスニングを主体としてリピーティングやシャドウイングを行わせる教材のみが提供されている。対話型(インタラクティブ)の会話学習支援システムでは、講師が直接または通信ネットワークを介して応対することが行われている。   In an unattended conversation learning support system with voice, only teaching materials that provide repeating and shadowing mainly for listening are provided. In an interactive conversation learning support system, an instructor responds directly or via a communication network.

リスニング、リピーティングもしくはシャドウイング、または、応答音声を録音するだけの一人で行う無人型の会話学習支援システムでは、対話型の(インタラクティブな)会話学習はできない。インタラクティブな会話学習支援には、講師がその時間拘束され、一人の講師について同時に学習できる人数がごく少数に限られる。そのため、インタラクティブな会話学習は一般に高額であり、学習できる時間が限定される。   In an unattended conversation learning support system that performs listening, repeating or shadowing, or recording a response voice alone, interactive conversation learning cannot be performed. For interactive conversation learning support, the instructor is restricted in time, and only a small number of people can learn about one instructor at the same time. For this reason, interactive conversation learning is generally expensive, and the learning time is limited.

本発明は、上述の事情に鑑みてなされたものであり、一人(無人)でかつインタラクティブな会話学習(支援)を行える、会話学習支援システム、会話学習支援方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a conversation learning support system, a conversation learning support method, and a program that enable one person (unmanned) and interactive conversation learning (support). To do.

本発明の第1の観点に係る会話学習支援システムは、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段と、
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする。
A conversation learning support system according to a first aspect of the present invention includes:
Voice storage means for storing voice data constituting at least one sentence;
Audio output means for reproducing and outputting predetermined audio from the audio data stored in the audio storage means;
A voice input means for inputting a voice of a speaker after outputting the voice by the voice output means;
Display means for displaying a sentence asking the content of the voice of the speaker after inputting the voice by the voice input means;
Input means for accepting an input to answer the question displayed by the display means;
Response voice storage means for classifying possible answers to a sentence asking the content of the speech of the speaker, and storing voice data that responds to each of the classified answers,
In response to the answer input by the input means, response output means for selecting and reproducing the voice data stored in the response voice storage means;
It is characterized by providing.

本発明の第2の観点に係る会話学習支援方法は、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする。
The conversation learning support method according to the second aspect of the present invention includes:
A voice output step of reproducing and outputting a predetermined voice from voice data stored in voice storage means for storing voice data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers , A response output step of selecting and reproducing audio data corresponding to the answer input in the input step;
It is characterized by providing.

本発明の第3の観点に係るプログラムは、コンピュータに、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とする。
A program according to a third aspect of the present invention is stored in a computer.
An audio output step of reproducing and outputting a predetermined audio from audio data stored in audio storage means for storing audio data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers A response output step of selecting and outputting voice data corresponding to the answer input in the input step;
Is executed.

本発明によれば、一人(無人)でかつインタラクティブな会話学習(支援)を行うことができる。   According to the present invention, one person (unmanned) and interactive conversation learning (support) can be performed.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施の形態1)
図1は、本発明の実施の形態1に係る会話学習支援装置の構成例を示すブロック図である。会話学習支援装置1は、音声記憶部2、音声出力部3、音声入力部4、表示部5、入力部6、制御部7、スピーカ8、マイク9、表示装置10、およびキーボードなどの入力装置11とから構成される。制御部7からの指示により、音声記憶部2のデータをもとに、音声出力部3、音声入力部4、表示部5、入力部6、は制御される。また、それぞれに対応するスピーカ8、マイク9、表示装置10、および入力装置11も制御される。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of a conversation learning support apparatus according to Embodiment 1 of the present invention. The conversation learning support apparatus 1 includes an audio storage unit 2, an audio output unit 3, an audio input unit 4, a display unit 5, an input unit 6, a control unit 7, a speaker 8, a microphone 9, a display device 10, and an input device such as a keyboard. 11. The voice output unit 3, the voice input unit 4, the display unit 5, and the input unit 6 are controlled based on the data in the voice storage unit 2 in accordance with an instruction from the control unit 7. In addition, the speaker 8, the microphone 9, the display device 10, and the input device 11 corresponding to each are controlled.

音声記憶部2は、音声で再生するデータから構成されたリスニングの内容を含むデータを記憶・保存する。   The voice storage unit 2 stores and saves data including listening contents composed of data reproduced by voice.

音声出力部3は、制御部7からの指示により、音声記憶部2に保存されたデータをデジタル・アナログ変換し、リスニング内容をスピーカ8から出力する。音声入力部4は、制御部7からの指示により、アナログ・デジタル変換し、マイク9から音声信号を入力する。制御部7では、音声入力部4へ入力の開始や停止などの制御も行われる。   In response to an instruction from the control unit 7, the audio output unit 3 performs digital / analog conversion on the data stored in the audio storage unit 2 and outputs the listening content from the speaker 8. The voice input unit 4 performs analog / digital conversion according to an instruction from the control unit 7 and inputs a voice signal from the microphone 9. The control unit 7 also controls the start and stop of input to the voice input unit 4.

表示部5は、制御部7からの指示により、音声記憶部2に保存されたデータを文字や絵などで表示装置10に表示する。入力部6は、制御部7からの指示により、キーボードやマウスなどの入力装置11から入力したデータを制御部7に伝達する。   The display unit 5 displays the data stored in the voice storage unit 2 on the display device 10 with characters, pictures, and the like according to an instruction from the control unit 7. The input unit 6 transmits data input from the input device 11 such as a keyboard or a mouse to the control unit 7 according to an instruction from the control unit 7.

この会話学習支援装置1を使用して学習する学習者のことをユーザと表記する。図2は、ユーザの学習内容の選択メニューを示すブロック図である。図2は、学習内容を語学(ファイルf1)、分野(ファイルf2)、項目(ファイルf3)、内容(ファイルf4)に階層化したメニューで選択する例を示す。ユーザは、ファイルf1から好きな語学を選択する。その下位にあるファイルf2から分野を選択し、さらに下位にあるファイルf3から項目を選択し、ファイルf4で学習する内容を選択する。実施の形態1では、ユーザがトラベル英会話の習得を目的としており、ファイルf1から順に、英語、一般、トラベル、買い物の順で、ファイル選択した場合を例に取り上げる。ユーザのレベルについては、例えばファイルf3の内容を選択する前後で、初級・中級・上級を選択できるようにしておく。   A learner who learns using the conversation learning support apparatus 1 is referred to as a user. FIG. 2 is a block diagram showing a menu for selecting the learning content of the user. FIG. 2 shows an example in which the learning content is selected from a menu hierarchically organized into language (file f1), field (file f2), item (file f3), and content (file f4). The user selects a favorite language from the file f1. A field is selected from the file f2 at the lower level, an item is selected from the file f3 at the lower level, and the contents to be learned from the file f4 are selected. In the first embodiment, an example is given in which a user selects a file in order of English, general, travel, and shopping in order from the file f1 for the purpose of learning travel English conversation. As for the user level, for example, the beginner / intermediate / advanced level can be selected before and after selecting the contents of the file f3.

最も下位の階層のファイルfであって、学習内容やレベルで複数に分類されたファイルf4は、それぞれのファイルf4に複数のデータd1、d2、d3、…、dn(以下、データdと総称する)を備える。図3は、音声記憶部2に記憶・保存されている複数のデータdの1つを示すブロック図である。   The file f4 in the lowest hierarchy and classified into a plurality of learning contents and levels is a plurality of data d1, d2, d3,..., Dn (hereinafter collectively referred to as data d). ). FIG. 3 is a block diagram showing one of a plurality of data d stored / stored in the voice storage unit 2.

データdは、リスニング内容p1、発話設定p2、質問内容p3、選択肢p4から構成される。音声データであるリスニング内容p1の例を図4に示す。図4から図7において、内容を日本語で記載しているが、実際は、その会話学習する語学、例えば英語で表現されているものとする。データdは、ユーザがリスニング内容p1に続けて発話し、会話に近い形式で話が展開するように、リスニング内容p1、質問内容p3および選択肢p4を設定することが好ましい。   Data d is composed of listening content p1, speech setting p2, question content p3, and option p4. An example of the listening content p1 which is audio data is shown in FIG. 4 to 7, the contents are described in Japanese. Actually, it is assumed that the language used for learning the conversation, for example, English, is used. It is preferable that the data d sets the listening content p1, the question content p3, and the option p4 so that the user speaks after the listening content p1 and the story develops in a format close to the conversation.

リスニング内容p1は、複数の文章から構成され、物語形式や会話形式などの形式であり、その文章は音声データをもとに構成される。リスニング内容p1は、制御部7の指示により、音声出力部3を介して、スピーカ8から音声再生される。音声データは、図5(a)の例に示す文や、図5(b)の例に示す単語の形で記憶されており、同じ学習内容で分類されたファイルf内では、データdの番号が異なる場合であっても、元となる音声データが共通する場合がある。リスニング内容p1は、音声データではなく、音声データの格納場所を指示するポインタであってもよい。また、リスニング内容p1は、その最後の部分に、ユーザの発話を促す内容の音声が含まれることが望ましい。   The listening content p1 is composed of a plurality of sentences and is in a form such as a narrative form or a conversation form, and the sentences are composed based on audio data. The listening content p <b> 1 is reproduced as audio from the speaker 8 via the audio output unit 3 according to an instruction from the control unit 7. The voice data is stored in the form of the sentence shown in the example of FIG. 5A or the word shown in the example of FIG. 5B, and the number of the data d in the file f classified by the same learning content. Even if they are different, the original audio data may be common. The listening content p1 may be a pointer indicating the storage location of the audio data, not the audio data. In addition, it is desirable that the listening content p <b> 1 includes the sound of the content prompting the user to speak at the last part.

発話設定p2は、リスニング内容p1を出力した後に、ユーザの発話(図6に1例を示す)を入力する時間などを定めたものである。具体的には、リスニング内容p1を聞いたユーザが発話するであろう内容に応じて、その発話の入力に要する時間が発話設定p2で設定されている。リスニング内容p1に関する発話を促すプロンプトが、発話設定p2に含まれていてもよい。プロンプトは、リスニング内容p1の音声再生後に続けて出力される。   The utterance setting p2 defines a time for inputting a user's utterance (an example is shown in FIG. 6) after outputting the listening content p1. Specifically, according to the content that the user who listened to the listening content p1 will utter, the time required for inputting the utterance is set in the utterance setting p2. The prompt for prompting the utterance regarding the listening content p1 may be included in the utterance setting p2. The prompt is output after the audio content of the listening content p1 is reproduced.

発話設定p2には、発話の入力時間の他に、さまざまな設定を付加してもよい。プロンプトを出力後に、表示装置10に、発話の入力時間を設定より長くするときの操作や、リスニング内容p1を繰り返して聞くための操作方法が表示されるように設定してもよい。   Various settings may be added to the utterance setting p2 in addition to the utterance input time. After outputting the prompt, the display device 10 may be set to display an operation for making the speech input time longer than the setting or an operation method for repeatedly listening to the listening content p1.

質問内容p3はリスニング内容p1に関連しており、ユーザの発話の内容を問う文である。質問内容p3と選択肢p4は対応しており、選択肢p4はユーザの発話するであろう内容を想定した項目となっている。図7は、質問内容p3と選択肢p4の例を示す。選択肢p4の各項目に対応して、次に出力するリスニング内容p1を含むデータdの番号が設定されている。ユーザが選択肢p4のいずれかの項目を選択すると、その項目に対応する次に学習するデータdが決定する。   The question content p3 is related to the listening content p1, and is a sentence for asking the content of the user's utterance. The question content p3 and the option p4 correspond to each other, and the option p4 is an item assuming content that the user will utter. FIG. 7 shows an example of the question content p3 and the option p4. Corresponding to each item of the choice p4, the number of data d including the listening content p1 to be output next is set. When the user selects any item of the option p4, data d to be learned next corresponding to the item is determined.

制御部7は、音声記憶部2のデータdを参照し、それに従って音声出力部3、音声入力部4、表示部5および入力部6を制御する。   The control unit 7 refers to the data d in the voice storage unit 2 and controls the voice output unit 3, the voice input unit 4, the display unit 5 and the input unit 6 according to the data d.

学習支援処理のはじめには、図2のファイルfを表示部5から出力し、入力部6でユーザの選択入力を受け付ける。例えば図2に示すように、学習内容の選択メニューは階層構造になっていて、語学、分野、項目、内容を選択された順序で表示する。各階層のメニューが選択されて、内容が決定されると、制御部7は、その内容にあらかじめ定められた最初のデータdを選択する。   At the beginning of the learning support process, the file f in FIG. 2 is output from the display unit 5, and a selection input by the user is received by the input unit 6. For example, as shown in FIG. 2, the learning content selection menu has a hierarchical structure and displays language, field, item, and content in the selected order. When the menu of each hierarchy is selected and the content is determined, the control unit 7 selects the first data d predetermined for the content.

最初のデータdが決定されると、制御部7は、そのデータdを記憶部2から読み込み、リスニング内容p1(またはリスニング内容p1で指定される音声データ)を出力するよう、音声出力部3に指令する。リスニング内容p1は、最後に、ユーザの発話を促す内容が含まれることが望ましい。もしくは、ユーザの発話を促す内容を、リスニング内容p1の後に付け加える。このとき、データdのリスニング内容p1の出力に続いて、ユーザの発話を促すプロンプトを出力してもよい。プロンプトの表示は、スピーカ8での音声表示、または、表示装置10での文字による表示がある。   When the first data d is determined, the control unit 7 reads the data d from the storage unit 2 and outputs the listening content p1 (or the audio data specified by the listening content p1) to the audio output unit 3. Command. The listening content p1 desirably includes content that prompts the user to speak. Alternatively, content that prompts the user to speak is added after the listening content p1. At this time, following the output of the listening content p1 of the data d, a prompt for prompting the user to speak may be output. The prompt display may be a voice display on the speaker 8 or a character display on the display device 10.

リスニング内容p1、およびプロンプトの出力が終了したら、次に制御部7は、音声入力部4に、ユーザの発話の入力を指示する。制御部7は、発話設定p2を参照して、入力する時間についても音声入力部4に指示する。発話を入力した後に、制御部7は、質問内容p3および選択肢p4を出力するよう音声出力部3または表示部5に指示する。そして、制御部7は、入力装置11により入力された選択肢p4を受け付けるように、入力部6に指示する。入力された選択肢p4を受け、制御部7は、次のデータdを音声記憶部2に指示する。   When the output of the listening content p1 and the prompt is completed, the control unit 7 next instructs the voice input unit 4 to input the user's utterance. The control unit 7 refers to the utterance setting p <b> 2 and instructs the voice input unit 4 regarding the input time. After inputting the utterance, the control unit 7 instructs the voice output unit 3 or the display unit 5 to output the question content p3 and the option p4. Then, the control unit 7 instructs the input unit 6 to accept the option p4 input by the input device 11. Upon receiving the input option p4, the control unit 7 instructs the voice storage unit 2 on the next data d.

ファイルf4には、複数のデータdが納められている。例えば、データdがデータdiの選択肢piにより選択されたデータdであるとする。データdでは、選択肢p4で選ぶ選択肢1、2、3、…、nから、次のデータ番号が決まる。図3の例では、選択肢1を選択した場合はデータdk、選択肢2はデータdl、選択肢3はデータdm、選択肢nはデータdnへと進む。選択した選択肢p4の項目により、同じファイルf4の中でも、別々のデータdへ次の会話内容が展開される。ユーザがファイルf4の学習の終了を選択してもよく、ファイルf4内の所定量のデータdを学習したら終了としてもよい。   A plurality of data d is stored in the file f4. For example, it is assumed that the data d is the data d selected by the option pi of the data di. In the data d, the next data number is determined from the options 1, 2, 3,..., N selected by the option p4. In the example of FIG. 3, when option 1 is selected, data dk, option 2 is data dl, option 3 is data dm, and option n is data dn. Depending on the item of the selected option p4, the next conversation content is expanded to different data d in the same file f4. The user may select to end learning of the file f4, or may end when learning a predetermined amount of data d in the file f4.

図7では、質問内容p3と選択肢p4がともに、表示部5から表示装置10に表示されている例を示したが、スピーカ8から音声で出力してもよい。また、質問内容p3と選択肢p4のいづれか一方がスピーカ8表示してもよい。   Although FIG. 7 shows an example in which both the question content p3 and the option p4 are displayed on the display device 10 from the display unit 5, they may be output from the speaker 8 by voice. In addition, any one of the question content p3 and the option p4 may be displayed on the speaker 8.

図8は、実施の形態1に係る会話学習支援装置の動作の一例を示すフローチャートである。ユーザは、会話学習支援装置1を起動し、学習を開始する。まず初めに、制御部7は表示部5に指示し、表示装置10に学習する内容のレベル・内容を表示する(ステップS11)。例えば、図2に示すファイルf1〜f4で階層構造のメニューを表示する。ユーザは、表示装置10を見ながら、入力装置11などで入力し、データdを選択する。例えば、図2に示すファイルf1〜f4で表示されるメニューの項目を選択し、最終的にデータdを選択する。また、予め個人情報を登録しておき、ログインすることでデータdを呼び出せるようにしてもよい。または、その他の方法で、ファイルfからデータdを選択する仕組みを備えておく。   FIG. 8 is a flowchart showing an example of the operation of the conversation learning support apparatus according to the first embodiment. The user activates the conversation learning support device 1 and starts learning. First, the control unit 7 instructs the display unit 5 to display the level and content of the content to be learned on the display device 10 (step S11). For example, a hierarchical menu is displayed with the files f1 to f4 shown in FIG. The user inputs data with the input device 11 while viewing the display device 10 and selects the data d. For example, the menu items displayed in the files f1 to f4 shown in FIG. 2 are selected, and finally the data d is selected. Alternatively, personal information may be registered in advance and the data d may be called by logging in. Alternatively, a mechanism for selecting the data d from the file f by other methods is provided.

制御部7は、音声記憶部2に記憶・保存されているデータdを参照する(ステップS12)。音声出力部3は、制御部7の指示を受け、リスニング内容p1をスピーカ8から再生する(ステップS13)。リスニング内容p1は、ステップS12で参照しているデータdの、音声データから構成された部分である。そのリスニング内容p1の最後の部分に、内容の続きや、内容に関連した事について、ユーザが続けて発話できるような内容が含まれることが望ましい。リスニング内容p1が終了後、制御部7は、発話を促すプロンプトを表示する(ステップS14)。発話を促すプロンプトは、スピーカ8より音声で再生され、または、表示装置10に表示される。このとき、制御部7の指示により、発話設定p2を参照して、音声入力の時間が決定する。音声入力の開始と終了の際に、制御部7から音声出力部3へ指示を出して、ブザー音を鳴らす仕組みを備えてもよい。この音声入力の開始と終了は、ユーザの発話の開始と終了の時間に等しく、ブザーが鳴ることで、ユーザは発話する時間を知ることができる。制御部7は、表示部5に指示し、音声入力の開始と終了を表示装置10に表示してもよい。   The control unit 7 refers to the data d stored / saved in the voice storage unit 2 (step S12). The audio output unit 3 receives the instruction from the control unit 7 and reproduces the listening content p1 from the speaker 8 (step S13). The listening content p1 is a portion composed of audio data of the data d referred to in step S12. It is desirable for the last part of the listening content p1 to include content that allows the user to continue speaking about the continuation of the content and things related to the content. After the listening content p1 ends, the control unit 7 displays a prompt to utter (step S14). The prompt for utterance is reproduced by voice from the speaker 8 or displayed on the display device 10. At this time, in response to an instruction from the control unit 7, the speech input time is determined with reference to the utterance setting p2. At the start and end of voice input, a mechanism may be provided that issues an instruction from the control unit 7 to the voice output unit 3 to sound a buzzer sound. The start and end of the voice input is equal to the start and end time of the user's utterance, and the user can know the time to speak by the buzzer sounding. The control unit 7 may instruct the display unit 5 to display the start and end of voice input on the display device 10.

制御部7は、発話設定p2に従って、音声入力部4から、マイク9の音声信号を入力する(ステップS15)。この音声信号には、ユーザがマイク9に向かって発話する音声が含まれる。   The control unit 7 inputs the audio signal of the microphone 9 from the audio input unit 4 according to the utterance setting p2 (step S15). This voice signal includes voice uttered by the user toward the microphone 9.

次に、制御部7は、データdの質問内容p3と選択肢p4を参照し、ユーザの発話した内容について、選択肢p4を選ぶ形式の選択用の質問を提示する(ステップS16)。制御部7の指示は、音声で出力する場合は音声出力部3へ行い、画面に表示する場合は表示部5へ行う。ユーザは、質問内容p3と選択肢p4と、発話した内容を考慮して、選択肢p4を入力装置11を用いて入力する。   Next, the control unit 7 refers to the question content p3 and the option p4 in the data d, and presents a selection question in a format for selecting the option p4 for the content uttered by the user (step S16). The instruction of the control unit 7 is given to the voice output unit 3 when outputting by voice, and to the display unit 5 when displaying on the screen. The user inputs the choice p4 using the input device 11 in consideration of the question content p3, the choice p4, and the uttered content.

制御部7は、入力装置11で入力された結果、すなわち選択肢p4を入力部6を介して受け付ける(ステップS17)。制御部7は、受け付けた選択肢p4の番号より、次に参照するデータd番号を決定する(ステップS18)。   The control unit 7 receives the result input by the input device 11, that is, the option p4, via the input unit 6 (step S17). The control unit 7 determines the data d number to be referred to next from the number of the accepted option p4 (step S18).

ステップS18で、会話学習支援1の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に学習継続を問う内容を表示する(ステップS19)。学習継続であれば(ステップS19;YES)、制御部7は、ステップS18で決定したデータdを参照し、ステップS12へ戻り、会話学習支援1を繰り返す。学習継続で無ければ(ステップS19;NO)、終了となる。   In step S18, a series of flows of the conversation learning support 1 is completed. The control unit 7 instructs the display unit 5 to display on the display device 10 the content for inquiring about continuation of learning (step S19). If learning is continued (step S19; YES), the control unit 7 refers to the data d determined in step S18, returns to step S12, and repeats the conversation learning support 1. If the learning is not continued (step S19; NO), the process ends.

以上説明したように、本実施の形態1に係る会話学習支援装置1によれば、ユーザの選択した内容により、学習した内容と関連した内容で、かつ、レベルに合った内容が選択され、次の学習へ進んでいく。その結果、学習するユーザの一人一人に合わせた学習が展開されていく。この会話学習支援装置1を使用することで、一人でインタラクティブな会話学習を行うことができる。さらに、個人での学習となるので、対話型の会話学習と比較すると、好きなときに好きな場所で学習ができるだけでなく、かかる費用も少なくて済む。   As described above, according to the conversation learning support apparatus 1 according to the first embodiment, the content selected by the user is selected as the content related to the learned content and suitable for the level. Proceed to learning. As a result, learning tailored to each of the learning users is developed. By using this conversation learning support apparatus 1, interactive conversation learning can be performed alone. Furthermore, since learning is performed by an individual, it is possible not only to learn at a favorite place at any time but also at a lower cost than interactive conversation learning.

(実施の形態2)
図9は、本発明の実施の形態2に係る会話学習支援装置の構成例を示すブロック図である。実施の形態2に係る会話学習支援装置100は、実施の形態1に係る会話学習支援装置1と基本構造は同じであるが、制御部7に、認識部7aと、判定部7bを設けており、録音データ記憶部12と通信部13が追加されている。さらに、ネットワーク50によりサーバ51と通信することができ、データのやりとりが可能である。
(Embodiment 2)
FIG. 9 is a block diagram showing a configuration example of the conversation learning support apparatus according to Embodiment 2 of the present invention. The conversation learning support device 100 according to the second embodiment has the same basic structure as the conversation learning support device 1 according to the first embodiment, but includes a recognition unit 7a and a determination unit 7b in the control unit 7. A recording data storage unit 12 and a communication unit 13 are added. Further, it is possible to communicate with the server 51 via the network 50 and exchange data.

録音データ記憶部12は、ユーザが発話した内容を保存する。より詳しくは、制御部7の指示により、ユーザがマイク9を介して音声入力部4に入力した音声を、アナログ・デジタル変換した後に、録音データの形で保存する。通信部13は、主に、音声記憶部2に記憶しているデータdや、録音データ記憶部12に保存された録音データなどを、ネットワーク50を介して通信し、サーバ51と様々なデータのやりとりを行う。   The recorded data storage unit 12 stores the content uttered by the user. More specifically, the voice input to the voice input unit 4 by the user via the microphone 9 according to an instruction from the control unit 7 is converted from analog to digital and then stored in the form of recorded data. The communication unit 13 mainly communicates the data d stored in the voice storage unit 2 and the recording data stored in the recording data storage unit 12 via the network 50 and exchanges various data with the server 51. Communicate.

制御部7に設けられた認識部7aは、ユーザがマイク9を介して音声入力部4に入力した発話した音声を認識する。例えば、ある所定の音の大きさ/音圧を超えた場合は、発話が行われた事を認識する。そのとき、音声入力開始時間から、音(発話)を認識するまでの時間の長さを測定したり、発話している間の時間を測定する。発話し始めるまでの時間が短いということは、内容を理解していることや、発話への慣れを意味することが多い。また、発話している時間は文章の長さと比例し、レベルが上がるにつれ、文章の長さが長くなることが多い。   The recognition unit 7 a provided in the control unit 7 recognizes the uttered voice input by the user to the voice input unit 4 via the microphone 9. For example, when a certain predetermined loudness / sound pressure is exceeded, it is recognized that an utterance has been made. At that time, the length of time from the voice input start time until the sound (speech) is recognized is measured, or the time during the utterance is measured. Short time to start speaking often means understanding the content or getting used to speaking. Also, the speaking time is proportional to the length of the sentence, and the length of the sentence often increases as the level increases.

判定部7bは、認識部7aで認識した音圧や、測定した発話時間などによるデータから、ユーザの理解度を判定する。また、認識部7aで音の波形を測定し、判定部7bで音声記憶部2の音声データの単語と測定した音の波形の照合を行ってもよい。類似した音の波形があれば、ユーザの発話に、データdの内容やデータdに関連のある単語が重複していることが分かる。これら複数の判断基準を合わせることで、より、判定の精度が高くなる。   The determination unit 7b determines the degree of understanding of the user from data based on the sound pressure recognized by the recognition unit 7a, the measured utterance time, and the like. Alternatively, the sound waveform may be measured by the recognition unit 7a, and the word of the voice data in the voice storage unit 2 may be compared with the measured sound waveform by the determination unit 7b. If there are similar sound waveforms, it can be seen that the content of data d and words related to data d are duplicated in the user's utterance. By combining these plurality of determination criteria, the accuracy of determination becomes higher.

図10は、実施の形態2に係る会話学習支援装置と添削システムの関係を示すブロック図である。会話学習支援装置100は通信部13を備え、ネットワーク50を介してサーバ51と色々なデータをやりとりをすることができる。ここではサーバ51をシステム部60とし、第3者(添削者70)による添削が受けられるしくみについても併せて説明する。   FIG. 10 is a block diagram illustrating the relationship between the conversation learning support apparatus and the correction system according to the second embodiment. The conversation learning support apparatus 100 includes a communication unit 13 and can exchange various data with the server 51 via the network 50. Here, the server 51 is assumed to be the system unit 60, and a mechanism by which correction by a third party (corrector 70) can be received will also be described.

ネットワーク50を介して、通信する先に、システム部60を備える。システム部60は、添削データ管理部61、個人情報管理部62、を備える。添削データ管理部61は、添削者70により採点・添削したデータや、採点・添削される前の録音データなどを管理する。個人情報管理部62は、登録しているユーザの情報、例えば、基本情報であるユーザの名前とIDなどの他に、学習コース内容やレベル、学習したデータdやその成績などのデータを管理する。   A system unit 60 is provided in advance of communication via the network 50. The system unit 60 includes an correction data management unit 61 and a personal information management unit 62. The correction data management unit 61 manages data scored / corrected by the corrector 70, recorded data before scoring / correcting, and the like. The personal information management unit 62 manages the registered user information, for example, the learning course content and level, the learned data d, and the results thereof, in addition to the user name and ID as basic information. .

会話学習支援装置100の録音データ記憶部12は、ユーザの発話した内容を録音データとして記憶する。通信部13は制御部7の指示を受け、録音データをネットワーク50を介して送信する。システム部60は、録音データを受信し、添削データ管理部61に保存する。第3者である添削者70は、添削データ管理部61にある録音データを採点・添削し、添削済みデータとして、添削データ管理部61に保存する。   The recorded data storage unit 12 of the conversation learning support apparatus 100 stores the content uttered by the user as recorded data. The communication unit 13 receives an instruction from the control unit 7 and transmits recording data via the network 50. The system unit 60 receives the recording data and stores it in the correction data management unit 61. The third person, the correction person 70, scores and corrects the recorded data in the correction data management part 61 and stores it in the correction data management part 61 as corrected data.

ユーザは復習する際に、まず添削済みデータを受信する必要がある。ユーザが選択したコマンドにより、制御部7は、通信部13に、添削済みのデータを受信するように指示を行う。通信部13は、ネットワーク50を介して、システム60の添削データ管理部61から添削済みデータを受信する。制御部7は、録音データ記憶部12に指示し、受信した添削済みデータを保存する。   When reviewing, the user must first receive corrected data. According to the command selected by the user, the control unit 7 instructs the communication unit 13 to receive the corrected data. The communication unit 13 receives the corrected data from the correction data management unit 61 of the system 60 via the network 50. The control unit 7 instructs the recording data storage unit 12 to store the received corrected data.

ネットワーク50側の採点・添削するシステムについては、システム部60側の添削者70が、採点・添削作業を行う。例えば、コールセンターのインバウンド業務のように、届いた録音データを受け取った順に採点・添削をしていく。添削者70は、データd番号と、録音データ、すなわちユーザの発話した内容が届き、その内容について採点・添削をするだけでよく、かかる時間は少なくてすむ。そのため、少ない人数の添削者70で、多くのユーザを担当することができる。   Regarding the scoring / correcting system on the network 50 side, the correcting person 70 on the system unit 60 side performs scoring / correcting work. For example, scoring and correction are performed in the order in which received recording data is received, such as inbound work at a call center. The corrector 70 receives the data d number and the recorded data, that is, the contents spoken by the user, and only needs to score and correct the contents, and the time required is small. Therefore, a large number of users can be handled by a small number of correctors 70.

添削済みデータは、例えば、ユーザの発話を文章に起こし、その上に赤ペンで添削したデータでもよく、ユーザの発話に即した文章を正したものを、音声データにしたものでもよい。また、回答の例があってもよい。   The corrected data may be, for example, data in which a user's utterance is uttered in a sentence and then corrected with a red pen, or a sentence corrected according to the user's utterance may be converted into voice data. There may also be examples of answers.

データの送信は、学習するデータd毎に行ってもよく、まとめてもよい。添削済みのデータの受信についても、データd毎に行ってもよく、まとめてもよい。送受信のタイミングは任意である。また、録音データ記憶部12に添削済みデータを保存せずに、添削データ管理部61に保存したままにしておき、必要なときにデータ通信を行ってもよい。   The data transmission may be performed for each data d to be learned or may be collected. The reception of the corrected data may be performed for each data d or may be summarized. Transmission / reception timing is arbitrary. Alternatively, the corrected data may be stored in the correction data management unit 61 without being stored in the recording data storage unit 12 and data communication may be performed when necessary.

採点・添削するシステムを行う場合は、従来の対話型のような会話学習でなくても、ユーザは発話を確認してもらうことができる。会話に近い形態の自由な発想に即した発話、例えば意見や希望、質問や表明など、様々な表現による発話を採点してもらうことが可能である。また、ネットワーク50のシステム部60側では、1人で多数のユーザの採点を行うことができるので、従来の会話学習のように常に対応する必要がない。ユーザにとっても、対話型による会話学習では制限されていた時間や場所を気にすることなく自由に学習できる。   When performing a scoring / correcting system, the user can confirm the utterance without using conversational learning as in the conventional interactive type. It is possible to score utterances in various forms such as utterances based on free ideas in a form close to conversation, such as opinions and hopes, questions and expressions. In addition, since the system unit 60 side of the network 50 can score a large number of users by one person, it is not always necessary to deal with the conventional conversation learning. Users can also learn freely without worrying about the time and place that were restricted in interactive conversation learning.

ネットワーク50による通信ができない場合であっても、会話学習支援装置100の録音データ記憶部12に保存した録音データをフレキシブルディスクなどの記録媒体に記録して、添削者70に直接送付することで、採点・添削するシステムを利用することは可能である。この場合、添削済みのデータも、記録媒体を用いて送付される。   Even when communication via the network 50 is not possible, recording data stored in the recording data storage unit 12 of the conversation learning support device 100 is recorded on a recording medium such as a flexible disk and directly sent to the corrector 70. It is possible to use a scoring and correction system. In this case, the corrected data is also sent using the recording medium.

図11は、実施の形態2に係る会話学習支援装置の動作の一例を示すフローチャートである。図11(a)は、会話学習支援2についてであり、図11(b)は、復習支援についてである。復習支援は、会話学習支援2に組み込んで動作してもよく、また、独立で動作してもよい。   FIG. 11 is a flowchart illustrating an example of the operation of the conversation learning support apparatus according to the second embodiment. FIG. 11A shows the conversation learning support 2 and FIG. 11B shows the review support. The review support may operate by being incorporated into the conversation learning support 2 or may operate independently.

ユーザは、会話学習支援装置100を起動し、学習を開始する。まず初めに、制御部7は表示部5に指示し、表示装置10に学習する内容のレベル・内容を表示する(ステップS31)。ユーザは、表示装置10を見ながら、入力装置11などで入力し、データdを選択する。例えば、ユーザの入力を受け、制御部7は通信部13を介してネットワーク50で通信し、個人情報管理部62に保存しているユーザの個人情報を呼び出す。そして、前回の学習の続きとなるデータdを参照してもよい。または、その他の方法で、ファイルfからデータdを選択する仕組みを備えておく。   The user activates the conversation learning support apparatus 100 and starts learning. First, the control unit 7 instructs the display unit 5 to display the level and content of the content to be learned on the display device 10 (step S31). The user inputs data with the input device 11 while viewing the display device 10 and selects the data d. For example, in response to a user input, the control unit 7 communicates with the network 50 via the communication unit 13 and calls the user personal information stored in the personal information management unit 62. Then, data d that is a continuation of the previous learning may be referred to. Alternatively, a mechanism for selecting the data d from the file f by other methods is provided.

制御部7は、音声記憶部2に記憶・保存されているデータdを参照する(ステップS32)。音声出力部3は、制御部7の指示を受け、リスニング内容p1をスピーカ8から再生する(ステップS33)。リスニング内容p1は、ステップS12で参照しているデータdの、音声データから構成された部分である。そのリスニング内容p1の最後の部分に、内容の続きや、内容に関連した事について、ユーザが続けて発話できるような内容が含まれることが望ましい。リスニング内容p1が終了後、制御部7は、発話を促すプロンプトを表示する(ステップS34)。発話を促すプロンプトは、スピーカ8より音声で再生され、または、表示装置10に表示される。このとき、制御部7の指示により、発話設定p2を参照して、音声入力の時間が決定する。音声入力の開始と終了の際に、制御部7から音声出力部3へ指示を出して、ブザー音を鳴らす仕組みを備えてもよい。この音声入力の開始と終了は、ユーザの発話の開始と終了の時間に等しく、ブザーが鳴ることで、ユーザは発話する時間を知ることができる。制御部7は、表示部5に指示し、音声入力の開始と終了を表示装置10に表示してもよい。   The control unit 7 refers to the data d stored / saved in the voice storage unit 2 (step S32). The audio output unit 3 receives the instruction from the control unit 7 and reproduces the listening content p1 from the speaker 8 (step S33). The listening content p1 is a portion composed of audio data of the data d referred to in step S12. It is desirable for the last part of the listening content p1 to include content that allows the user to continue speaking about the continuation of the content and things related to the content. After the listening content p1 is completed, the control unit 7 displays a prompt for urging to speak (step S34). The prompt for utterance is reproduced by voice from the speaker 8 or displayed on the display device 10. At this time, in response to an instruction from the control unit 7, the speech input time is determined with reference to the utterance setting p2. At the start and end of voice input, a mechanism may be provided that issues an instruction from the control unit 7 to the voice output unit 3 to sound a buzzer sound. The start and end of the voice input is equal to the start and end time of the user's utterance, and the user can know the time to speak by the buzzer sounding. The control unit 7 may instruct the display unit 5 to display the start and end of voice input on the display device 10.

制御部7は、発話設定p2に従って、音声入力部4から、マイク9の音声信号を入力する。制御部7は、入力される発話を、録音データ記憶部12に記憶するよう指示するとともに、認識部7aで、発話までにかかる時間と、発話している時間の計測を行う(ステップS35)。   The control unit 7 inputs the audio signal of the microphone 9 from the audio input unit 4 in accordance with the utterance setting p2. The control unit 7 instructs the recording data storage unit 12 to store the input utterance, and the recognition unit 7a measures the time taken for the utterance and the time spent speaking (step S35).

次に、制御部7は、データdの質問内容p3と選択肢p4を参照し、ユーザの発話した内容について、選択肢p4を選ぶ形式の選択用の質問を提示する(ステップS36)。制御部7の指示は、音声で出力する場合は音声出力部3へ行い、画面に表示する場合は表示部5へ行う。ユーザは、質問内容p3と選択肢p4と、発話した内容を考慮して、選択肢p4を入力装置11を用いて入力する。   Next, the control unit 7 refers to the question content p3 and the option p4 in the data d, and presents a selection question in a format for selecting the option p4 for the content uttered by the user (step S36). The instruction of the control unit 7 is given to the voice output unit 3 when outputting by voice, and to the display unit 5 when displaying on the screen. The user inputs the choice p4 using the input device 11 in consideration of the question content p3, the choice p4, and the uttered content.

制御部7は、入力装置11で入力された結果、すなわち選択肢p4を入力部6を介して受け付ける(ステップS37)。次に、制御部7は、認識部7aで認識した結果をもとに、判定部7bで判定を行う(ステップS38)。ここで判定とは、ユーザの理解度を簡易に判断することを指す。判定の基準となるデータは、ステップS35で測定した発話時間の測定結果、声の大きさ、声のスピードなどのデータである。また、発話の音声の波形を音声データと照合し、重要な単語がどれくらい重複しているかなども判断基準となる場合がある。1つもしくは複数のデータより、判定部7bで、ユーザの理解度を判定する。   The control unit 7 receives the result input by the input device 11, that is, the option p4 via the input unit 6 (step S37). Next, the control unit 7 performs determination by the determination unit 7b based on the result recognized by the recognition unit 7a (step S38). Here, the term “determination” refers to simple determination of the user's level of understanding. The data used as a criterion for determination is data such as the measurement result of the utterance time measured in step S35, the volume of the voice, and the speed of the voice. In addition, the speech waveform of an utterance is collated with speech data, and how many important words are duplicated may be a criterion. Based on one or a plurality of data, the determination unit 7b determines the degree of understanding of the user.

制御部7の指示により、ステップS38の判定の結果を、表示装置10に表示してもよい。ユーザは判定結果を確認し、自身の理解度チェックに役立てることができる。このとき、制御部7から表示部5への指示により、リスニング内容p1のあらすじを一緒に表示してもよい。   The result of determination in step S38 may be displayed on the display device 10 according to an instruction from the control unit 7. The user can check the determination result and use it for checking his / her own understanding level. At this time, an outline of the listening content p <b> 1 may be displayed together by an instruction from the control unit 7 to the display unit 5.

制御部7は、ステップS37で受け付けた選択肢p4の番号より、次に参照するデータd番号を決定する(ステップS39)。   The control unit 7 determines the data d number to be referred to next from the number of the option p4 received in step S37 (step S39).

ステップS39で、会話学習支援2の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に学習継続を問う内容を表示する(ステップS40)。学習継続であれば(ステップS40;YES)、制御部7は、ステップS39で決定したデータdを参照し、ステップS32へ戻り、会話学習支援2を繰り返す。学習継続で無ければ(ステップS40;NO)、終了となる。   In step S39, a series of flows of the conversation learning support 2 is completed. The control unit 7 instructs the display unit 5 to display on the display device 10 the content for inquiring about continuation of learning (step S40). If the learning is continued (step S40; YES), the control unit 7 refers to the data d determined in step S39, returns to step S32, and repeats the conversation learning support 2. If the learning is not continued (step S40; NO), the process ends.

制御部7の判定部7bで判定される結果より、ユーザのレベルと学習レベルが一致しているかどうかを判断し、データdの選択に反映させてもよい。ステップS38の判定の結果を、ユーザの理解度として数値化するようにプログラミングしておき、閾値を与える。閾値よりユーザの理解度が上回る場合は、データdのレベルが低い、もしくは学習済み分野として、制御部7は、データdの決定(ステップS39)を行わずに、レベル・内容提示(ステップS31)を行うように表示部5へ指示を出す。また、閾値よりユーザの理解度が下回る場合は、データdのレベルが高いとして、制御部7は同様に、データdの決定(ステップS39)を指示せずに、レベル・内容提示(ステップS31)の指示を行う。この動作を会話学習支援2に組み込むことで、ユーザのレベルに適した学習をより支援しやすくなる。   Based on the result determined by the determination unit 7b of the control unit 7, it may be determined whether or not the user level and the learning level match, and may be reflected in the selection of the data d. The result of determination in step S38 is programmed so as to be digitized as the degree of understanding of the user, and a threshold value is given. When the level of understanding of the user exceeds the threshold, the level of the data d is low, or the control unit 7 presents the level / content (step S31) without determining the data d (step S39) as a learned field. The display unit 5 is instructed to perform If the user's level of understanding is lower than the threshold, the level of the data d is high and the control unit 7 similarly presents the level / contents without instructing the determination of the data d (step S39) (step S31). The instructions are given. By incorporating this operation into the conversation learning support 2, it becomes easier to support learning suitable for the user's level.

判定(ステップS38)の結果は、フローチャートには記載していないが、制御部7の指示により、通信部13を介してネットワーク50による通信をしてもよい。個人情報のデータとして、システム部60は個人情報管理部62に情報を蓄積する。例えば、通信部13から送付した個人データ(ユーザの理解度を示すデータなど)の量が、ある一定量に達したとき、制御部7より、個人情報の分析の指示が出される。制御部7の指示を受け、学習上達具合などを表示装置10に表示する。ユーザは、上達度や得意・不得意分野を知ることができたり、他のユーザとの比較ができ、学習意欲の向上や、より効率よい学習計画を立てるのに役に立つ。   Although the result of the determination (step S38) is not described in the flowchart, communication by the network 50 may be performed via the communication unit 13 according to an instruction from the control unit 7. The system unit 60 stores information in the personal information management unit 62 as personal information data. For example, when the amount of personal data (such as data indicating the degree of understanding of the user) sent from the communication unit 13 reaches a certain amount, the control unit 7 issues an instruction to analyze personal information. In response to an instruction from the control unit 7, the learning progress is displayed on the display device 10. The user can know the level of improvement and the areas of strength and weakness, and can compare with other users, which is useful for improving learning motivation and creating a more efficient learning plan.

以上説明したように、本実施の形態2に係る会話学習支援装置100によれば、ユーザの選択した内容により、学習した内容と関連した内容で、かつ、レベルに合った内容が選択され、次の学習へ進んでいく。その結果、学習するユーザの一人一人に合わせた学習が展開されていく。この会話学習支援装置100を使用することで、一人でインタラクティブな会話学習を行うことができる。さらに、個人での学習となるので、対話型の会話学習と比較すると、好きなときに好きな場所で学習ができるだけでなく、かかる費用も少なくて済む。   As described above, according to the conversation learning support device 100 according to the second embodiment, the content selected by the user is selected as the content related to the learned content and suitable for the level. Proceed to learning. As a result, learning tailored to each of the learning users is developed. By using this conversation learning support apparatus 100, interactive conversation learning can be performed alone. Furthermore, since learning is performed by an individual, it is possible not only to learn at a favorite place at any time but also at a lower cost than interactive conversation learning.

復習支援の動作に入る前に、ユーザは、会話学習支援2で学習し、発話を録音データとして、会話学習支援装置100に保存しておく。以下、復習を行うときの、会話学習支援装置100について説明する。図11(b)は、復習支援の動作の一例を示すフローチャートである。   Before entering the review support operation, the user learns with the conversation learning support 2 and stores the utterance as recorded data in the conversation learning support apparatus 100. Hereinafter, the conversation learning support apparatus 100 when reviewing will be described. FIG. 11B is a flowchart illustrating an example of the review support operation.

まず初めに、制御部7は録音データ記憶部12にある録音データを参照する(ステップS51)。録音データが複数ある場合は、例えば、まだ復習していない録音データの中で最もデータ作成日が古い録音データを参照してもよい。また、制御部7は、表示部5へ指示し、録音データのリストを表示装置10に表示し、ユーザの入力による選択の指示を受け付けてもよい。   First, the control unit 7 refers to the recorded data stored in the recorded data storage unit 12 (step S51). When there are a plurality of recording data, for example, the recording data with the oldest data creation date may be referred to among the recording data that have not been reviewed. Further, the control unit 7 may instruct the display unit 5 to display a list of recorded data on the display device 10 and accept a selection instruction by a user input.

通信部13は、制御部7の指示により、ネットワーク50を介して録音データを送信する(ステップS52)。ネットワーク50を介してサーバ51(ここではシステム部60)に送信された録音データは、第3者である添削者70の採点・添削を受け、添削済みデータとなる。通信部13は、再度、制御部7の指示により、ネットワーク50を介して添削済みデータを受信する(ステップS53)。   The communication unit 13 transmits the recording data via the network 50 according to an instruction from the control unit 7 (step S52). The recorded data transmitted to the server 51 (here, the system unit 60) via the network 50 is scored / corrected by a third person, the correction person 70, and becomes corrected data. The communication unit 13 receives the corrected data again via the network 50 according to the instruction from the control unit 7 (step S53).

次に、制御部7は、ステップS51で参照した録音データ、すなわちユーザの発話を、音声出力部3に出力するように指示し、スピーカ8より音声再生する(ステップS54)。続けて、受信した添削済みデータを出力するように表示部5に指示する。指示を受け、表示部5は表示装置10に表示する(ステップS55)。録音データの再生を何度か繰り返し、その間、添削済みデータを表示してもよい。また、制御部7の指示により、データdのリスニング内容p1を表示してもよい。   Next, the control unit 7 instructs the audio output unit 3 to output the recording data referred to in step S51, that is, the user's utterance, and reproduces the sound from the speaker 8 (step S54). Subsequently, the display unit 5 is instructed to output the received corrected data. Upon receiving the instruction, the display unit 5 displays it on the display device 10 (step S55). The reproduction of the recorded data may be repeated several times, and the corrected data may be displayed during that time. Further, the listening content p1 of the data d may be displayed according to an instruction from the control unit 7.

添削済みデータが、録音データ(ユーザの発話)が文章に起こされて添削された形式を想定しているが、音声のみのデータであってもよい。その場合は、制御部7は音声出力部3に指示し、スピーカ8から添削済みデータを音声再生する(ステップS55)。   Although the corrected data is assumed to be recorded data (user's utterance) in a sentence and corrected, it may be audio-only data. In that case, the control unit 7 instructs the audio output unit 3 to reproduce the corrected data through the speaker 8 (step S55).

ステップS55で、復習支援の一連の流れは終了である。制御部7は、表示部5に指示し、表示装置10に復習継続を問う内容を表示する(ステップS56)。復習継続であれば(ステップS56;YES)、制御部7は、ステップS51に戻り、復習支援を繰り返す。復習継続で無ければ(ステップS56;NO)、終了となる。   In step S55, the review support flow is completed. The control unit 7 instructs the display unit 5 to display on the display device 10 contents for inquiring about continuation of review (step S56). If review is continued (step S56; YES), the control unit 7 returns to step S51 and repeats review support. If the review is not continued (step S56; NO), the process ends.

会話学習支援2と復習支援を独立せずに、学習後にそのまま復習してもよい。その場合、図11(a)の会話学習支援2の、ステップS39とステップS40の間に、図11(b)の復習支援の、ステップS51からステップS55を組み込む。また、学習するデータd毎に、復習をしてもよく、複数のデータdを学習した後に、復習をまとめて行ってもよい。   The conversation learning support 2 and the review support may be reviewed as they are after the learning without being independent. In this case, steps S51 to S55 of the review support in FIG. 11B are incorporated between steps S39 and S40 of the conversation learning support 2 in FIG. Further, a review may be performed for each data d to be learned, or a plurality of data d may be learned and then the review may be performed collectively.

さらに、実施の形態2では、復習支援の際、その都度、会話学習支援2で録音したデータdを通信している。録音データの通信は、会話学習支援2でユーザの発話を記憶した時点で行ってもよく、添削済みデータを録音データ記憶部12に保存しておいてもよい。   Furthermore, in the second embodiment, the data d recorded by the conversation learning support 2 is communicated each time when review support is provided. The communication of the recording data may be performed when the user's utterance is stored by the conversation learning support 2, and the corrected data may be stored in the recording data storage unit 12.

個人情報管理部62で管理するさまざまな個人情報や、録音データおよび添削済みデータのデータ通信および保存については、上記の例に限らない。特に、予め、会話学習支援2で学習したデータdの添削結果を会話学習支援装置100の録音データ記憶部12に保存しておくことで、すぐに復習することが可能である。   Various personal information managed by the personal information management unit 62 and data communication and storage of recorded data and corrected data are not limited to the above example. In particular, it is possible to review the correction result of the data d learned by the conversation learning support 2 in advance in the recorded data storage unit 12 of the conversation learning support apparatus 100, so that it can be reviewed immediately.

なお、会話学習支援装置100は、携帯電話を用いることができる。スピーカ、マイク、画面、キーボード(操作ボタン)が既に備えられており、通信も可能である。日常生活にかかせないもので、多くの人が常に携帯しており、発話や聞くことも当たり前の行動であり、どこでも手軽に学習することができる。また、会話学習支援装置は、小型のモバイルパソコンなどでもよい。発話のためのマイクがない場合であっても、例えば、ヘッドセット型のマイクを用いるなどして、応答音声を記憶することができる。さらに、通信機能がない携帯型ゲーム機の場合であっても、回答した発話内容を、SDカード(Secure Digital Memory Card)などの記憶媒体に録音できればよい。例えば、外出先で録音したデータを、帰宅後にパソコンを用いてネットワークシステムに通信しておく。採点されたデータを取り込み、記憶媒体を用いて、ゲーム機に取り込んでおく。この場合は、発話してすぐに確認することはできないが、外出先でも、発話確認の部分の学習は可能であり、復習することができる。   The conversation learning support apparatus 100 can use a mobile phone. A speaker, a microphone, a screen, a keyboard (operation buttons) are already provided, and communication is also possible. It is an indispensable part of daily life, and many people always carry it. Speaking and listening is a natural action, and it can be easily learned anywhere. The conversation learning support device may be a small mobile personal computer. Even if there is no microphone for speaking, the response voice can be stored by using, for example, a headset type microphone. Furthermore, even in the case of a portable game machine without a communication function, it is only necessary that the uttered content that has been answered can be recorded in a storage medium such as an SD card (Secure Digital Memory Card). For example, data recorded on the go is communicated to a network system using a personal computer after returning home. The scored data is captured and stored in a game machine using a storage medium. In this case, the utterance cannot be confirmed immediately after being uttered, but the part of the utterance confirmation can be learned and reviewed even when away from home.

ここでは、サーバ51をシステム部60として説明しているが、任意に変更および修正が可能である。また、ネットワーク50を用いてデータをやりとりするタイミングや、データを保存する装置、サーバなども、任意に設定できる。データ通信が行いにくい場合などは、予め、データ通信によりデータを取り込んでおき、会話学習支援装置100に保存してもよい。また、データが膨大となる場合や、ユーザの学習レベルや学習内容を常に確認したい場合などは、ネットワークが繋がった状態で学習をすることも可能である。   Here, the server 51 is described as the system unit 60, but can be arbitrarily changed and modified. In addition, the timing for exchanging data using the network 50, a device for storing data, a server, and the like can be arbitrarily set. When it is difficult to perform data communication, data may be captured in advance by data communication and stored in the conversation learning support apparatus 100. In addition, when the amount of data is enormous, or when it is desired to constantly check the user's learning level and learning content, it is possible to learn while the network is connected.

以上説明したように、実施の形態2に係る会話学習支援装置100によれば、発話した内容を確認でき、マニュアル通りではなく、より実践に近い形の会話学習(支援)をすることができる。また、個人情報を蓄積するなどして、ユーザに合わせた学習計画を立てることができるので、より効率よく学習を進めることができる。さらに、インタラクティブな学習でありながら、1人で複数のユーザに対応できるので、従来より低額で、会話学習(支援)をすることが可能となる。   As described above, according to the conversation learning support apparatus 100 according to the second embodiment, it is possible to confirm the uttered content, and it is possible to perform conversation learning (support) in a form closer to practice, not according to the manual. In addition, it is possible to make a learning plan tailored to the user by accumulating personal information or the like, so that learning can be performed more efficiently. Furthermore, since it is interactive learning, one person can deal with a plurality of users, so that conversation learning (support) can be performed at a lower cost than before.

図12は、図1または図9に示す会話学習支援装置1、100のハードウェア構成の一例を示すブロック図である。会話学習支援装置1、100は、図12に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25および送受信部26を備える。主記憶部22、外部記憶部23、操作部24、表示部25および送受信部26はいずれも内部バス20を介して制御部21に接続されている。   FIG. 12 is a block diagram illustrating an example of a hardware configuration of the conversation learning support devices 1 and 100 illustrated in FIG. 1 or 9. As shown in FIG. 12, the conversation learning support apparatuses 1 and 100 include a control unit 21, a main storage unit 22, an external storage unit 23, an operation unit 24, a display unit 25, and a transmission / reception unit 26. The main storage unit 22, the external storage unit 23, the operation unit 24, the display unit 25, and the transmission / reception unit 26 are all connected to the control unit 21 via the internal bus 20.

制御部21はCPU(Central Processing Unit)などから構成され、外部記憶部23に記憶されているデータdに従って処理を実行する。   The control unit 21 includes a CPU (Central Processing Unit) and the like, and executes processing according to data d stored in the external storage unit 23.

主記憶部22はRAM(Random-Access Memory)などから構成され、外部記憶部23に記憶されているデータdをロードし、制御部21の作業領域として用いられる。   The main storage unit 22 is configured by a RAM (Random-Access Memory) or the like, loads data d stored in the external storage unit 23, and is used as a work area of the control unit 21.

外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)などの不揮発性メモリから構成され、前記の処理を制御部21に行わせるためのプログラムを予め記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。   The external storage unit 23 includes a non-volatile memory such as a flash memory, a hard disk, a DVD-RAM (Digital Versatile Disc Random Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and the above processing is performed by the control unit 21. A program to be executed is stored in advance, and data stored in the program is supplied to the control unit 21 according to an instruction from the control unit 21, and the data supplied from the control unit 21 is stored.

操作部24はキーボードおよびマウスなどのポインティングデバイスなどと、キーボードおよびポインティングデバイスなどを内部バス20に接続するインターフェース装置から構成されている。操作部24を介して、選択肢p4などのデータが入力され、制御部21に供給される。また、指示の入力を受け付け、制御部21に供給する。   The operation unit 24 includes a pointing device such as a keyboard and mouse, and an interface device that connects the keyboard and pointing device to the internal bus 20. Data such as option p4 is input via the operation unit 24 and supplied to the control unit 21. Further, it receives an instruction input and supplies it to the control unit 21.

表示部25は、CRT(Cathode Ray Tube)又はLCD(Liquid Crystal Display)などから構成され、質問内容p3などを表示する。   The display unit 25 includes a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays the question content p3 and the like.

送受信部26は、無線送受信機、無線モデム又は網終端装置、およびそれらと接続するシリアルインターフェース又はLAN(Local Area Network)インターフェースから構成されている。送受信部26を介して、データdや個人情報などをやりとりする。   The transmission / reception unit 26 includes a wireless transmitter / receiver, a wireless modem or a network termination device, and a serial interface or a LAN (Local Area Network) interface connected thereto. Data d, personal information, and the like are exchanged via the transmission / reception unit 26.

その他、本発明の好適な変形として、以下の構成が含まれる。   Other suitable modifications of the present invention include the following configurations.

本発明の第1の観点に係る会話学習支援システムについて、
好ましくは、前記音声入力手段で入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定手段を備え、
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
About the conversation learning support system according to the first aspect of the present invention,
Preferably, a determination unit that determines the level of the utterance of the speaker by a predetermined method from the voice input by the voice input unit,
The response output means selects voice data corresponding to the answer input by the input means from the voice data stored in the response voice storage means according to the level of utterance determined by the determination means. Output,
It is characterized by that.

好ましくは、前記音声入力手段で入力された音声を録音する録音手段を備えることを特徴とする。   Preferably, a recording means for recording the voice input by the voice input means is provided.

好ましくは、前記入力手段で入力された前記表示手段で表示した問いに対する回答を参照して、前記録音手段で録音した音声から音声認識する認識手段を備えることを特徴とする。   Preferably, there is provided a recognition means for recognizing a voice from a voice recorded by the recording means with reference to an answer to the question displayed by the display means inputted by the input means.

少なくとも前記音声記憶手段および前記応答音声記憶手段を備えるサーバ装置と、
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする。
A server device comprising at least the voice storage means and the response voice storage means;
A terminal comprising the voice output means, the voice input means, the display means, the input means and the response output means;
It communicates via a network.

本発明の第2の観点に係る会話学習支援方法について、
好ましくは、前記音声入力ステップで入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定ステップを備え、
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする。
Regarding the conversation learning support method according to the second aspect of the present invention,
Preferably, the method includes a determination step of determining a level of the utterance of the speaker by a predetermined method from the voice input in the voice input step,
In the response output step, voice data corresponding to the answer input in the input step is selected from the voice data stored in the response voice storage means according to the utterance level determined in the determination step. Output,
It is characterized by that.

好ましくは、前記音声入力ステップで入力された音声を録音する録音ステップを備えることを特徴とする。   Preferably, a recording step of recording the voice input in the voice input step is provided.

好ましくは、前記入力ステップで入力された、前記表示ステップで表示した問いに対する回答を参照して、前記録音ステップで録音した音声から音声認識する認識ステップを備えることを特徴とする。   Preferably, the method further comprises a recognition step of recognizing the voice recorded in the recording step with reference to an answer to the question displayed in the display step input in the input step.

その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.

会話学習の中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する会話学習支援装置を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで会話学習支援装置を構成してもよい。   The central part of conversation learning can be realized using a normal computer system, not a dedicated system. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, a conversation learning support device that executes the above-described processing may be configured. Further, the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and the conversation learning support device may be configured by being downloaded by a normal computer system.

また、会話学習支援装置を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the conversation learning support device is realized by sharing an OS (operating system) and an application program or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. Also good.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

本発明の実施の形態1に係る会話学習支援装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the conversation learning assistance apparatus which concerns on Embodiment 1 of this invention. ユーザの学習内容の選択メニューを示すブロック図である。It is a block diagram which shows the selection menu of a user's learning content. 音声記憶部に記憶されている複数のデータの中の1つを示すブロック図である。It is a block diagram which shows one of the some data memorize | stored in the audio | voice memory | storage part. データのリスニング内容の例で、実際は音声で再生するものである。It is an example of data listening content, and is actually played back by voice. リスニング内容を構成する音声データの例である。It is an example of the audio | voice data which comprise the listening content. ユーザの発話内容の例である。It is an example of a user's utterance content. 質問内容と選択肢(の内容)の例で、画面に表示した場合である。This is an example of question contents and options (contents), which are displayed on the screen. 実施の形態1に係る会話学習支援装置の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of an operation of the conversation learning support device according to the first embodiment. 本発明の実施の形態2に係る会話学習支援装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the conversation learning assistance apparatus which concerns on Embodiment 2 of this invention. 実施の形態2に係る会話学習支援装置と添削システムの関係を示すブロック図である。It is a block diagram which shows the relationship between the conversation learning assistance apparatus which concerns on Embodiment 2, and a correction system. 実施の形態2に係る会話学習支援装置の動作の一例を示すフローチャートである。(a)は会話学習支援の動作、(b)は復習支援の動作を示す。6 is a flowchart illustrating an example of the operation of the conversation learning support apparatus according to the second embodiment. (A) shows the operation of conversation learning support, and (b) shows the operation of review support. 実施の形態に係る会話学習支援装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the conversation learning assistance apparatus which concerns on embodiment.

符号の説明Explanation of symbols

1 会話学習支援装置
2 音声記憶部
3 音声出力部
4 音声入力部
5 表示部
6 入力部
7 制御部
8 スピーカ
9 マイク
12 録音データ記憶部
13 通信部
50 ネットワーク
100 会話学習支援装置
DESCRIPTION OF SYMBOLS 1 Conversation learning support device 2 Voice storage part 3 Voice output part 4 Voice input part 5 Display part 6 Input part 7 Control part 8 Speaker 9 Microphone 12 Recording data storage part 13 Communication part 50 Network 100 Conversation learning support apparatus

Claims (10)

少なくとも1つの文を構成する音声データを記憶する音声記憶手段と、
前記音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力手段と、
前記音声出力手段で音声を出力したのちに、発話者の音声を入力する音声入力手段と、
前記音声入力手段で音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示手段と、
前記表示手段で表示した問いに回答する入力を受け付ける入力手段と、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段と、
前記入力手段で入力された回答に対応して、前記応答音声記憶手段に記憶された音声データから選択して再生出力する応答出力手段と、
を備えることを特徴とする会話学習支援システム。
Voice storage means for storing voice data constituting at least one sentence;
Audio output means for reproducing and outputting predetermined audio from the audio data stored in the audio storage means;
A voice input means for inputting a voice of a speaker after outputting the voice by the voice output means;
Display means for displaying a sentence asking the content of the voice of the speaker after inputting the voice by the voice input means;
Input means for accepting an input to answer the question displayed by the display means;
Response voice storage means for classifying possible answers to a sentence asking the content of the speech of the speaker, and storing voice data that responds to each of the classified answers,
In response to the answer input by the input means, response output means for selecting and reproducing the voice data stored in the response voice storage means;
Conversation learning support system characterized by comprising.
前記音声入力手段で入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定手段を備え、
前記応答出力手段は、前記判断手段で判定された発話の水準に応じて、前記入力手段で入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする請求項1に記載の会話学習支援システム。
Determination means for determining the level of the utterance of the speaker by a predetermined method from the voice input by the voice input means;
The response output means selects voice data corresponding to the answer input by the input means from the voice data stored in the response voice storage means according to the level of utterance determined by the determination means. Output,
The conversation learning support system according to claim 1.
前記音声入力手段で入力された音声を録音する録音手段を備えることを特徴とする請求項1または2に記載の会話学習支援システム。   The conversation learning support system according to claim 1, further comprising a recording unit configured to record a voice input by the voice input unit. 前記入力手段で入力された前記表示手段で表示した問いに対する回答を参照して、前記録音手段で録音した音声から音声認識する認識手段を備えることを特徴とする請求項3に記載の会話学習支援システム。   4. The conversation learning support according to claim 3, further comprising a recognizing means for recognizing a voice from a voice recorded by the recording means with reference to an answer to the question displayed by the display means inputted by the input means. system. 少なくとも前記音声記憶手段および前記応答音声記憶手段を備えるサーバ装置と、
前記音声出力手段、前記音声入力手段、前記表示手段、前記入力手段および前記応答出力手段を備える端末とが、
ネットワークを介して通信することを特徴とする請求項1ないし4のいずれか1項に記載の会話学習支援システム。
A server device comprising at least the voice storage means and the response voice storage means;
A terminal comprising the voice output means, the voice input means, the display means, the input means and the response output means;
The conversation learning support system according to any one of claims 1 to 4, wherein communication is performed via a network.
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応して音声データを選択して再生出力する応答出力ステップと、
を備えることを特徴とする会話学習支援方法。
A voice output step of reproducing and outputting a predetermined voice from voice data stored in voice storage means for storing voice data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers , A response output step of selecting and reproducing audio data corresponding to the answer input in the input step;
A conversation learning support method characterized by comprising:
前記音声入力ステップで入力される音声から、前記発話者の発話の水準を所定の方法で判定する判定ステップを備え、
前記応答出力ステップは、前記判断ステップで判定された発話の水準に応じて、前記入力ステップで入力された回答に対応する音声データを、前記応答音声記憶手段に記憶された音声データから選択して出力する、
ことを特徴とする請求項6に記載の会話学習支援方法。
A determination step of determining a level of the utterance of the speaker by a predetermined method from the voice input in the voice input step;
In the response output step, voice data corresponding to the answer input in the input step is selected from the voice data stored in the response voice storage means according to the utterance level determined in the determination step. Output,
The conversation learning support method according to claim 6.
前記音声入力ステップで入力された音声を録音する録音ステップを備えることを特徴とする請求項6または7に記載の会話学習支援方法。   The conversation learning support method according to claim 6, further comprising a recording step of recording the voice input in the voice input step. 前記入力ステップで入力された、前記表示ステップで表示した問いに対する回答を参照して、前記録音ステップで録音した音声から音声認識する認識ステップを備えることを特徴とする請求項8に記載の会話学習支援方法。   The conversation learning according to claim 8, further comprising a recognition step of recognizing speech from the voice recorded in the recording step with reference to an answer to the question displayed in the display step input in the input step. Support method. コンピュータに、
少なくとも1つの文を構成する音声データを記憶する音声記憶手段に記憶されている音声データから、所定の音声を再生出力する音声出力ステップと、
前記音声出力ステップで前記音声を出力したのちに、発話者の音声を入力する音声入力ステップと、
前記音声入力ステップで音声を入力したのちに、前記発話者の音声の内容を問う文を表示する表示ステップと、
前記表示ステップで表示した問いに回答する入力を受け付ける入力ステップと、
前記発話者の音声の内容を問う文に対して可能な回答を類型化して、該類型化された回答それぞれに対応して応答する音声データを記憶する応答音声記憶手段に記憶された音声データから、前記入力ステップで入力された回答に対応する音声データを選択して出力する応答出力ステップと、
を実行させることを特徴とするプログラム。
On the computer,
An audio output step of reproducing and outputting a predetermined audio from audio data stored in audio storage means for storing audio data constituting at least one sentence;
A voice input step of inputting a voice of a speaker after outputting the voice in the voice output step;
A display step for displaying a sentence asking the content of the voice of the speaker after inputting the voice in the voice input step;
An input step for accepting an input to answer the question displayed in the display step;
From the voice data stored in the response voice storage means for classifying possible answers to the sentence asking the content of the voice of the speaker and storing voice data responding to each of the classified answers A response output step of selecting and outputting voice data corresponding to the answer input in the input step;
A program characterized by having executed.
JP2008255773A 2008-09-30 2008-09-30 Conversation learning support system, conversation learning support method, and program Pending JP2010085790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008255773A JP2010085790A (en) 2008-09-30 2008-09-30 Conversation learning support system, conversation learning support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255773A JP2010085790A (en) 2008-09-30 2008-09-30 Conversation learning support system, conversation learning support method, and program

Publications (1)

Publication Number Publication Date
JP2010085790A true JP2010085790A (en) 2010-04-15

Family

ID=42249792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255773A Pending JP2010085790A (en) 2008-09-30 2008-09-30 Conversation learning support system, conversation learning support method, and program

Country Status (1)

Country Link
JP (1) JP2010085790A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389975A (en) * 2017-08-09 2019-02-26 联想(新加坡)私人有限公司 Voice auxiliary system, server unit, equipment, its voice householder method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109389975A (en) * 2017-08-09 2019-02-26 联想(新加坡)私人有限公司 Voice auxiliary system, server unit, equipment, its voice householder method

Similar Documents

Publication Publication Date Title
US8371857B2 (en) System, method and device for language education through a voice portal
US20100304342A1 (en) Interactive Language Education System and Method
JP6705956B1 (en) Education support system, method and program
KR101004913B1 (en) Apparatus for evaluating speech ability of computer-directed interaction using speech recognition and its evaluation method
KR102498172B1 (en) Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function
CN105702102A (en) Electronic device and record regeneration method of electronic device
KR20120042298A (en) Language estimation system and estimating method thereof
KR100915681B1 (en) Method and apparatus of naturally talking with computer
JP2003228279A (en) Language learning apparatus using voice recognition, language learning method and storage medium for the same
KR100898104B1 (en) Interactive Learning Systems and Methods
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
JP6656529B2 (en) Foreign language conversation training system
WO2020090857A1 (en) Method and system for evaluating linguistic ability
JP7530688B1 (en) Program, computer, system and information processing method
KR20030065259A (en) Apparatus and method of learnning languages by sound recognition and sotring media of it
JP2010085790A (en) Conversation learning support system, conversation learning support method, and program
KR20190070682A (en) System and method for constructing and providing lecture contents
JP2017021245A (en) Language learning support device, language learning support method, and language learning support program
KR102460272B1 (en) One cycle foreign language learning system using mother toungue and method thereof
JP2005031207A (en) Pronunciation practice support system, pronunciation practice support method, pronunciation practice support program, and computer-readable recording medium recording the same
JP4899383B2 (en) Language learning support method
KR20110064964A (en) Intelligent language learning and pronunciation correction system
KR101142985B1 (en) Pronunciation correction apparatus, system for providing foreign languag proceding study service using same
KR101180846B1 (en) Method for Music-based Language Training and On-Line Training System thereof
KR20210135151A (en) Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function