JP2017054038A - Learning support device and program for the learning support device - Google Patents
Learning support device and program for the learning support device Download PDFInfo
- Publication number
- JP2017054038A JP2017054038A JP2015178654A JP2015178654A JP2017054038A JP 2017054038 A JP2017054038 A JP 2017054038A JP 2015178654 A JP2015178654 A JP 2015178654A JP 2015178654 A JP2015178654 A JP 2015178654A JP 2017054038 A JP2017054038 A JP 2017054038A
- Authority
- JP
- Japan
- Prior art keywords
- text
- learning
- learning support
- word
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
本発明は、学習支援装置及びその学習支援装置用のプログラムに関する。 The present invention relates to a learning support apparatus and a program for the learning support apparatus.
例えば、特許文献1に、会話におけるテキストと音声を対応付け、指定したパートの音声を無音にして再生できるようにして会話練習するシステムが開示されている。
また、特許文献2に、問題に対する回答を音声で行わせ、これを録音し、録音した音声を再生した後に正解音声を聞かせるようにした英会話学習装置が開示されている。
For example, Patent Document 1 discloses a system for practicing conversation by associating text and voice in a conversation so that the voice of a specified part can be reproduced without sound.
Further, Patent Document 2 discloses an English conversation learning apparatus in which an answer to a problem is made by voice, this is recorded, and the recorded voice is reproduced and then the correct voice is heard.
従来、上記のような語学学習を支援する学習支援装置が知られているが、より適切に学習を支援する学習支援装置の出現が望まれている。 Conventionally, learning support devices that support language learning as described above are known, but the emergence of learning support devices that support learning more appropriately is desired.
本発明は、このような事情に鑑みてなされたものであり、より適切に語学学習などを支援することができる学習支援装置及びその学習支援装置用のプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to provide a learning support apparatus and a program for the learning support apparatus that can support language learning and the like more appropriately.
本発明は、上記目的を達成するために、以下の構成によって把握される。
本発明の学習支援装置は、入力された音声を認識してテキストに変換する手段と、前記テキストに含まれる単語の発話状況を判別する手段と、判別結果に応じて前記テキストを識別表示するように制御する手段と、前記識別表示された前記テキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を提供する手段と、を備える。
The present invention is grasped by the following composition in order to achieve the above-mentioned object.
The learning support apparatus of the present invention recognizes input speech and converts it into text, means for discriminating the utterance status of a word included in the text, and identifying and displaying the text according to the discrimination result And means for providing corresponding learning items in response to a user specifying at least a part of the identified and displayed text.
本発明の学習支援装置用のプログラムは、学習支援装置のコンピュータに、入力された音声を認識してテキストに変換する手順と、前記テキストに含まれる単語の発話状況を判別する手順と、判別結果に応じて前記テキストを識別表示するように制御する手順と、前記識別表示された前記テキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を提供する手順と、を実行させる。 A program for a learning support apparatus according to the present invention includes: a procedure for recognizing input speech into a computer of a learning support apparatus and converting it into text; a procedure for determining the utterance status of a word included in the text; and a determination result And a procedure for controlling the text to be identified and displayed in accordance with the text, and a procedure for providing a corresponding learning item in response to a user specifying at least a part of the text that has been identified and displayed.
本発明によれば、より適切に学習を支援する学習支援装置及びその学習支援装置用のプログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the learning assistance apparatus which supports learning more appropriately, and the program for the learning assistance apparatus can be provided.
以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態という)について詳細に説明する。
以降の図においては、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。
DETAILED DESCRIPTION Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail with reference to the accompanying drawings.
In the subsequent drawings, the same numbers or symbols are assigned to the same elements throughout the description of the embodiments.
(実施形態の構成)
図1は本実施形態に係る学習支援装置10の正面図であり、図2は学習支援装置10の制御系を示すブロック図である。
本実施形態の学習支援装置10は、図1に示すように、表示部14と入力部13とを備える。
なお、本実施形態では、表示部14がタッチパネル機能を有するため、表示部14も入力部13の一部を構成している。
(Configuration of the embodiment)
FIG. 1 is a front view of a learning support apparatus 10 according to the present embodiment, and FIG. 2 is a block diagram showing a control system of the learning support apparatus 10.
As illustrated in FIG. 1, the learning support device 10 according to the present embodiment includes a display unit 14 and an input unit 13.
In the present embodiment, since the display unit 14 has a touch panel function, the display unit 14 also constitutes a part of the input unit 13.
また、本実施形態の学習支援装置10は、図示しない音声を入力するための音声入力部12(例えば、マイク)や図示しない音声を出力するための音声出力部(例えば、スピーカー)が内蔵されている。 In addition, the learning support apparatus 10 according to the present embodiment includes a voice input unit 12 (for example, a microphone) for inputting voice (not shown) and a voice output unit (for example, speaker) for outputting voice (not shown). Yes.
次に、図2を参照しながら、学習支援装置10の制御系について説明を行う。
図2に示すように、学習支援装置10は、処理部11と、記憶部15と、VRAM(Video RAM)16と、を備えており、処理部11には、上述した音声入力部12、入力部13、表示部14などが接続されている。
Next, the control system of the learning support apparatus 10 will be described with reference to FIG.
As shown in FIG. 2, the learning support apparatus 10 includes a processing unit 11, a storage unit 15, and a VRAM (Video RAM) 16, and the processing unit 11 includes the voice input unit 12 and the input described above. The unit 13 and the display unit 14 are connected.
処理部11は、学習支援装置10の制御中枢であり、例えば、マイクロプロセッサを内蔵し、記憶部15の所定の領域に格納された制御プログラム他を読み出し逐次実行することにより後述する機能を実行する。 The processing unit 11 is a control center of the learning support device 10. For example, the processing unit 11 has a built-in microprocessor, and executes functions to be described later by reading and sequentially executing control programs and the like stored in a predetermined area of the storage unit 15. .
音声入力部12は、入力された音声を認識して、その認識結果を処理部11に引き渡す。
入力部13は、利用者の操作(キー入力やタッチパネル入力)に応じて処理部11に指令を送る。
The voice input unit 12 recognizes the input voice and passes the recognition result to the processing unit 11.
The input unit 13 sends a command to the processing unit 11 in accordance with a user operation (key input or touch panel input).
なお、本実施形態では、ポータブルサイズの電子辞書の一機能として学習支援機能を備えるようにした学習支援装置を例にしているが、学習支援装置の本体がノートパソコンなどのようなものであっても良く、したがって、入力部13は、マウスやキーボードといったものである場合もある。 In the present embodiment, a learning support device having a learning support function as an example of a portable electronic dictionary function is taken as an example, but the main body of the learning support device is a notebook personal computer or the like. Therefore, the input unit 13 may be a mouse or a keyboard.
表示部14は、処理部11により変換されるテキストを表示する表示モニタである。
このような表示部14を構成する表示モニタとしては、各種のものを使用することができ、例えば、LCD(Liquid Crystal Display)やOELD(organic electroluminescence display)で構成される表示モニタなどを好適に用いることができる。
また、本実施形態では、入力部13の一部として機能するように表示部14が一体形成されたタッチパネル付きのものになっているが、必ずしもタッチパネル付きである必要はない。
ただし、タッチパネル付きの表示部14の方が各種操作の利便性が図れるので好ましい。
The display unit 14 is a display monitor that displays text converted by the processing unit 11.
Various displays can be used as the display monitor constituting the display unit 14, and for example, a display monitor composed of a liquid crystal display (LCD) or an organic electroluminescence display (OELD) is preferably used. be able to.
In the present embodiment, the display unit 14 is integrated with the touch panel so as to function as a part of the input unit 13, but the display unit 14 is not necessarily provided with the touch panel.
However, the display unit 14 with a touch panel is preferable because convenience of various operations can be achieved.
記憶部15は、例えば、フラッシュメモリなどの半導体メモリが実装されており、制御プログラム、音声認識プログラム、スピーキングプログラムなどのプログラムが格納される領域、辞書DBなどのデータが格納される領域の他、プログラムの実行過程で生成される各種データ(テキストデータや頻度データなど)が格納される作業領域が割り当てられており、これらプログラムやデータが記憶される。
なお、プログラムの実行過程で生成される各種データにおいて、一時記憶だけで良いものに関しては一時記憶領域に記憶されるが、学習支援装置10の次回使用時にも使用するデータ等に関しては、例えば、学習支援装置10の動作を終了する段階で一時記憶領域でない記憶領域に保存される。
The storage unit 15 is mounted with, for example, a semiconductor memory such as a flash memory. In addition to an area for storing a program such as a control program, a speech recognition program, and a speaking program, an area for storing data such as a dictionary DB, A work area for storing various data (text data, frequency data, etc.) generated in the course of program execution is allocated, and these programs and data are stored.
Of various data generated during the execution of the program, data that only needs to be temporarily stored is stored in the temporary storage area. However, regarding data used at the next use of the learning support apparatus 10, for example, learning is performed. When the operation of the support device 10 is finished, the data is stored in a storage area that is not a temporary storage area.
VRAM(Video RAM)16は、処理部11により生成される表示データが格納される表示メモリであり、格納される表示データ等は処理部11により更新され、また、表示部14の表示タイミングに同期して処理部11により読み出されて表示部14に出力される。 A VRAM (Video RAM) 16 is a display memory in which display data generated by the processing unit 11 is stored. The stored display data and the like are updated by the processing unit 11 and synchronized with the display timing of the display unit 14. Then, the data is read out by the processing unit 11 and output to the display unit 14.
なお、処理部11は、後ほど説明するが、入力された音声を認識してテキストに変換する手段(音声−テキスト変換手段)、テキストに含まれる単語の発話状況を判別する手段(発話状況判別手段)、判別結果に応じてテキストを識別表示するように表示部14に表示するように制御する手段(表示制御手段)、識別表示されたテキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を表示部14に表示して学習事項を提供する手段(表示制御手段)等を備える。 As will be described later, the processing unit 11 recognizes input speech and converts it into text (speech-text conversion unit), and determines a speech state of words included in the text (speech state determination unit). ), Means for controlling to display the text on the display unit 14 so as to identify and display the text according to the determination result (display control means), and responding according to the user designating at least a part of the identified and displayed text Means (display control means) for displaying learning items to be displayed on the display unit 14 and providing the learning items are provided.
また、処理部11は、後ほど説明するが、例文を検索する手段(例文検索手段)や類語を検索する手段(類語検索手段)を備える。
これら音声−テキスト変換手段、発話状況判別手段、表示制御手段、例文検索手段、類語検索手段のそれぞれは、処理部11が記憶部15に記憶された各種データを参照して各種プログラムを実行することにより実現される機能である。
As will be described later, the processing unit 11 includes means for searching for example sentences (example sentence search means) and means for searching for synonyms (synonym search means).
Each of these speech-text conversion means, speech state determination means, display control means, example sentence search means, and synonym search means causes the processing unit 11 to execute various programs with reference to various data stored in the storage unit 15. This is a function realized by.
(実施形態の動作)
図3、図4のフローチャート、及び図5の画面遷移図を参照しながら、本実施形態に係る学習支援装置10の動作について詳細に説明する。
以下では、スピーキング能力の向上のためのスピーキング学習の場合を例にして学習支援装置10の動作を具体的に説明する。
(Operation of the embodiment)
The operation of the learning support apparatus 10 according to the present embodiment will be described in detail with reference to the flowcharts of FIGS. 3 and 4 and the screen transition diagram of FIG.
Hereinafter, the operation of the learning support apparatus 10 will be described in detail by taking the case of speaking learning for improving the speaking ability as an example.
スピーキング学習をスタートすると、処理部11は、プログラムに基づき問題を提示し、例えば、図5(a)に示すスピーキングカード画面として問題を表示部14に表示する(図3のステップS101)。
ここでは、「family」について英語で説明する問題が表示されているので、ユーザは「family」についての説明を英語で声に出して回答することになる。
When the speaking learning is started, the processing unit 11 presents the problem based on the program, and displays the problem on the display unit 14 as, for example, a speaking card screen shown in FIG. 5A (step S101 in FIG. 3).
Here, since a problem explaining “family” in English is displayed, the user answers the explanation of “family” in English.
図5(a)に示すように、スピーキングカード画面の右上には、入力部13として機能するタッチすることで「録音」を開始する「録音」アイコンが表示されているので、ユーザは回答を始めるにあたって、この「録音」アイコンをタッチし、録音を開始した状態で提示された問題、つまり、「family」についての説明を声に出して答え、回答を音声入力する。 As shown in FIG. 5A, since the “recording” icon for starting “recording” by touching which functions as the input unit 13 is displayed on the upper right of the speaking card screen, the user starts answering. At this time, the user touches the “recording” icon, answers the problem presented when recording is started, that is, “family”, and inputs the answer by voice.
なお、「録音」アイコンがタッチされて録音が開始されると、処理部11は、図5(b)に示すように、表示部14に表示している「録音」アイコンを、録音を停止させるための「停止」アイコンに変え、回答が終わったときの録音の停止が行えるようにする。 When recording is started by touching the “recording” icon, the processing unit 11 stops the recording of the “recording” icon displayed on the display unit 14 as shown in FIG. Instead of the “stop” icon, you can stop recording when the answer is over.
処理部11は、「録音」アイコンがタッチされたのを検知すると、音声入力部12を介した音声入力の受付を開始し(図3のステップS102)、ユーザの音声による回答を音声認識処理によりテキストデータ(以下、単にテキストデータのことをテキストともいう)に変換して、その認識結果(テキスト)を記憶部15のテキストデータを記憶するための作業領域に一時格納する(図3のステップS103)。 When the processing unit 11 detects that the “recording” icon has been touched, it starts accepting voice input via the voice input unit 12 (step S102 in FIG. 3), and the response by the user's voice is received by voice recognition processing. The data is converted into text data (hereinafter simply referred to as text data), and the recognition result (text) is temporarily stored in a work area for storing text data in the storage unit 15 (step S103 in FIG. 3). ).
また、並行して処理部11は、音声による回答中の各単語の発話状況として、前の単語の発話が終わってから次の単語の発話が開始されるまでの時間を計測する(図3のステップS104)。
なお、このステップS103及びステップS104の処理は、上述した「停止」アイコンがタッチされるまで継続される(ステップS105“No”)。
At the same time, the processing unit 11 measures the time from the end of the utterance of the previous word to the start of the utterance of the next word as the utterance state of each word being answered by voice (FIG. 3). Step S104).
Note that the processing in steps S103 and S104 is continued until the above-described “stop” icon is touched (step S105 “No”).
そして、ユーザは音声による回答が終わると、上述したスピーキングカード画面の右上に表示されている「停止」アイコンをタッチして回答並びに録音を終了する。
処理部11は、「停止」アイコンがタッチされたことを検知すると(ステップS105“Yes”)、図5(c)に示すように、「停止」アイコンを録音した回答の音声を再生するための「再生」アイコンに変え、この「再生」アイコンをユーザがタッチすることで、録音した回答音声の再生が行えるようにするとともに、処理部11は、左隅に参照、及び分析の選択が行えるメニュー画面の表示を行う(図3のステップS106)。
When the user finishes answering by voice, the user touches the “stop” icon displayed on the upper right of the above speaking card screen to finish answering and recording.
When the processing unit 11 detects that the “stop” icon is touched (step S105 “Yes”), as shown in FIG. 5C, the processing unit 11 reproduces the voice of the answer in which the “stop” icon is recorded. When the user touches the “play” icon instead of the “play” icon, the recorded answer voice can be played, and the processing unit 11 can refer to the left corner and select a menu screen for analysis. Is displayed (step S106 in FIG. 3).
処理部11は、図5(c)に示すメニュー画面の表示を行うと、ユーザが何らかの操作を行うまで待機状態となる。
ここで、ユーザが入力部13を操作(タッチ操作やキー操作)して何らかの操作を行うと、その操作を処理部11が検知して、処理部11は、ユーザが行った操作が「再生」の選択であるかを判定する(図3のステップS107)。
When the processing unit 11 displays the menu screen illustrated in FIG. 5C, the processing unit 11 is in a standby state until the user performs some operation.
Here, when the user operates the input unit 13 (touch operation or key operation) to perform any operation, the processing unit 11 detects the operation, and the processing unit 11 performs “reproduction” as the operation performed by the user. Is determined (step S107 in FIG. 3).
そして、ユーザの行った操作が「再生」アイコンをタッチして「再生」を選択する操作であった場合(図3のステップS107“Yes”)、処理部11は回答音声の録音データを再生する(図3のステップS108)。
なお、回答音声の録音データの再生が終了すると、処理部11は、再び、図5(c)に示す状態の画面を表示してユーザの次の操作が発生するまで待機状態となる。
When the operation performed by the user is an operation for selecting “play” by touching the “play” icon (step S107 “Yes” in FIG. 3), the processing unit 11 plays the recorded data of the answer voice. (Step S108 in FIG. 3).
When the reproduction of the answer voice recording data is completed, the processing unit 11 again displays the screen in the state shown in FIG. 5C and enters a standby state until the next user operation occurs.
また、ユーザの行った操作が「再生」を選択する操作でなかった場合(図3のステップS107“No”)、処理部11は、ユーザの行った操作が左隅のメニュー画面の「参照」を選択する操作であるかを判定し(図3のステップS109)、「参照」を選択する操作であった場合(図3のステップS109“Yes”)、先ほどの問題に対する回答例を表示部14に表示する(図3のステップS110)。 If the operation performed by the user is not an operation for selecting “play” (step S107 “No” in FIG. 3), the processing unit 11 performs “reference” on the menu screen at the left corner. It is determined whether the operation is to be selected (step S109 in FIG. 3). If the operation is to select “reference” (step S109 “Yes” in FIG. 3), an example of an answer to the previous problem is displayed on the display unit 14. It is displayed (step S110 in FIG. 3).
なお、回答例を表示する状態になってから、ユーザが入力部13を操作(タッチ操作やキー操作)して図5(c)に示す状態の画面の表示に戻る操作を行うと、再び、処理部11は図5(c)に示す状態の画面を表示してユーザの次の操作が発生するまで待機状態となる。 If the user operates the input unit 13 (touch operation or key operation) to return to the screen display in the state shown in FIG. The processing unit 11 displays the screen in the state shown in FIG. 5C and enters a standby state until the next user operation occurs.
さらに、ユーザの行った操作が「参照」を選択する操作でもなかった場合(図3のステップS109“NO”)、処理部11は、ユーザの行った操作が左隅のメニュー画面の「分析」を選択する操作であるかを判定し(図3のステップS111)、「分析」を選択する操作でもなかった場合(図3のステップS111“No”)、例えば、「スピーキング学習」を終了する処理を実行する。 Further, when the operation performed by the user is not an operation for selecting “reference” (step S109 “NO” in FIG. 3), the processing unit 11 performs “analysis” on the menu screen in the left corner. It is determined whether the operation is to be selected (step S111 in FIG. 3). If the operation is not an operation to select “analysis” (step S111 “No” in FIG. 3), for example, a process of ending “speaking learning” is performed. Run.
一方、ユーザの行った操作が左隅のメニュー画面の「分析」を選択する操作であった場合(図3のステップS111“Yes”)、処理部11は、分析結果を表示する処理を実行する(図3のステップS112)。
この分析結果を表示する処理は、例えば、図4に示すフローチャートに示す手順で実行される。
On the other hand, when the operation performed by the user is an operation of selecting “analysis” on the menu screen in the left corner (step S111 “Yes” in FIG. 3), the processing unit 11 executes a process of displaying the analysis result ( Step S112 in FIG.
The process of displaying the analysis result is executed, for example, according to the procedure shown in the flowchart shown in FIG.
なお、この分析結果を表示する状態になってから、ユーザが入力部13を操作(タッチ操作やキー操作)して図5(c)に示す状態の画面の表示に戻る操作を行うと、再び、処理部11は図5(c)に示す状態の画面を表示してユーザの次の操作が発生するまで待機状態となる。 When the user operates the input unit 13 (touch operation or key operation) and returns to the screen display in the state shown in FIG. The processing unit 11 displays the screen in the state shown in FIG. 5C and enters a standby state until the next user operation occurs.
以下、図4、図5(d)を参照しながら、図3のステップS112の分析結果を表示する処理について説明する。
分析結果の表示処理が開始されると、図4に示すように、処理部11は、テキスト中の単語の頻度データを更新する(ステップS201)。
Hereinafter, the process of displaying the analysis result in step S112 in FIG. 3 will be described with reference to FIGS. 4 and 5D.
When the analysis result display process is started, as shown in FIG. 4, the processing unit 11 updates the frequency data of words in the text (step S201).
より具体的に説明すると、記憶部15には、これまでのスピーキング学習でユーザが使用した単語の使用回数が記憶されており、処理部11は、図3のステップS103の処理によってユーザの音声による回答をテキストデータに変換して、記憶部15の作業領域に格納したテキスト中(テキストデータ中)の単語について、今回の使用回数を加えるようにして単語の頻度データを更新する処理を行う。 More specifically, the storage unit 15 stores the number of words used by the user in the previous speaking learning, and the processing unit 11 uses the voice of the user by the process of step S103 in FIG. The answer is converted into text data, and the word frequency data is updated by adding the number of times of use for the word in the text (in the text data) stored in the work area of the storage unit 15.
単語の頻度データの更新が終わると、次に、処理部11は、今回のスピーキング学習の発話状況として、今回の回答のテキスト中に使用頻度が大(予め定められている閾値を超える使用頻度)の単語があるかを判別し(ステップS202)、閾値を超える使用頻度の単語があれば(ステップS202“Yes”)、その単語に第1の識別表示情報を付加する(ステップS203)。 When the update of the word frequency data is completed, the processing unit 11 then uses a large frequency of use in the text of the current answer (usage frequency exceeding a predetermined threshold) as the utterance status of the current speaking learning. (Step S202), if there is a word with a frequency of use exceeding the threshold (step S202 "Yes"), the first identification display information is added to the word (step S203).
後ほど説明するが、例えば、第1の識別表示情報として、その使用頻度の高い単語について水色マーカーを表示する場合、ステップS203では、その使用頻度の高い単語に水色マーカーを表示するための水色マーカーフラグを付加する。 As will be described later, for example, when displaying a light blue marker for the frequently used word as the first identification display information, in step S203, a light blue marker flag for displaying a light blue marker on the frequently used word Is added.
一方、今回の回答のテキスト中に閾値を超える使用頻度の単語がなければ(ステップS202“No”)、ステップS203の処理を行うことなく、次のステップであるステップS204に進む。 On the other hand, if there is no use frequency word exceeding the threshold in the text of the current answer (step S202 “No”), the process proceeds to step S204, which is the next step, without performing the process of step S203.
ステップS204では、処理部11は、今回のスピーキング学習の発話状況として、図3のステップS104で計測した単語の発話に要した時間の計測結果に基づき、発話した各単語の発話に至るまでの時間を確認する(ステップS204)。
つまり、直前に発話した単語から次の単語の発話に至るまでの時間をチェックすることで、発話に至るまでに長い時間がかかった単語は発話することが苦手な単語であると考えられるため、このような発話に時間を要した単語があるか確認する処理である。
具体的には、各単語について、図3のステップS104で計測した各単語の発話に要した時間が、予め定められている閾値を超える時間を要しているかをチェックし(ステップS204)、発話に時間を要した単語(閾値を超える時間を要した単語)があれば(ステップS205“Yes”)、その単語に第2の識別表示情報を付加する(ステップS206)。
In step S204, the processing unit 11 determines the time until the utterance of each spoken word based on the measurement result of the time taken to utter the word measured in step S104 in FIG. Is confirmed (step S204).
In other words, by checking the time from the last word spoken to the next word utterance, it seems that words that took a long time to speak are not good at speaking, This is a process for confirming whether or not there is a word that takes time to speak.
Specifically, for each word, it is checked whether the time required for uttering each word measured in step S104 in FIG. 3 exceeds a predetermined threshold (step S204). If there is a word that took time (word that took time exceeding the threshold) (step S205 “Yes”), the second identification display information is added to the word (step S206).
後ほど説明するが、例えば、第2の識別表示情報として、その発話に時間を要した単語について紫色マーカーを表示する場合、ステップS206では、その発話に時間を要した単語に紫色マーカーを表示するための紫色マーカーフラグを付加する。 As will be described later, for example, as a second identification display information, when a purple marker is displayed for a word that took time to speak, in step S206, a purple marker is displayed for a word that took time to speak. Add a purple marker flag.
一方、今回の回答のテキスト中に発話に要する時間が閾値を超える単語がなければ(ステップS205“No”)、ステップS206の処理を行うことなく、次のステップであるステップS207に進む。
このように、処理部11は、テキスト中の単語の使用頻度や発話に要した時間などの発話状況を閾値と比較し判別する手段として機能する。
On the other hand, if there is no word whose utterance time exceeds the threshold in the text of the answer this time (step S205 “No”), the process proceeds to the next step, step S207, without performing the process of step S206.
In this manner, the processing unit 11 functions as a means for determining the utterance situation such as the frequency of use of words in the text and the time required for utterance by comparing with the threshold value.
ステップS207では、処理部11は、テキスト中の単語に水色マーカーフラグがある単語があれば、その単語の表示部分に水色マーカーを付加し、紫色マーカーフラグがある単語があれば、その単語の表示部分に紫色マーカーを付加するようにしてテキストを表示部14に表示する。 In step S207, if there is a word with a light blue marker flag in a word in the text, the processing unit 11 adds a light blue marker to the display portion of the word, and if there is a word with a purple marker flag, displays the word. The text is displayed on the display unit 14 so that a purple marker is added to the portion.
図5(d)は、今回の回答の音声データをテキストデータとした音声テキストを表示部14に表示したところを示す図であるが、図では色まではわからないが、この音声テキスト中の「related」という単語は、発話までに要する時間が閾値を超えていたため、紫色マーカーが付加されて表示されている。
また、同様に「especially」という単語は、使用頻度が閾値を超えていたため、水色マーカーが付加されて表示されている。
このように、処理部11は、使用頻度や発話に要する時間などの判定結果に応じて、テキストを識別表示するように制御する手段として機能し、その識別表示を反映したテキストを表示部14に表示すると、処理部11は、ユーザの次の操作があるまで待機状態となる。
FIG. 5D is a diagram showing a place where the voice text in which the voice data of the current answer is text data is displayed on the display unit 14, but the color is not known in the figure, but “related” in this voice text is shown. The word "" is displayed with a purple marker added because the time required for utterance exceeds the threshold.
Similarly, the word “specially” is displayed with a light blue marker added because the usage frequency exceeds the threshold.
In this way, the processing unit 11 functions as a means for controlling the text to be identified and displayed according to the determination result such as the frequency of use and the time required for utterance, and the text reflecting the identification display is displayed on the display unit 14. When displayed, the processing unit 11 is in a standby state until the user's next operation is performed.
そして、ユーザが操作を行うと、処理部11は、第1の識別情報が付加された第1の単語が指定されたかを判定する(ステップS208)。ここで、ユーザの操作が「especially」をタッチ操作した第1の単語指定であった場合(ステップS208“Yes”)、処理部11は、発話状況が発話した単語の頻度であるとして英語類語辞書(辞典)を選択し、第1の単語指定が行われた使用頻度の高い単語(本例では、especially)の類語の検索(類語辞書の検索)を行う(ステップS209)。そして、処理部11は、ユーザが指定することに応じた対応する学習事項として、別の単語を用いた別の表現方法がわかるように、その類語検索結果に基づいて類語を表示部14に表示(ステップS210)して、ユーザに別の単語を用いた別の表現方法という学習事項を提供する。 When the user performs an operation, the processing unit 11 determines whether the first word to which the first identification information is added is specified (step S208). Here, when the user's operation is the first word designation by touching “especially” (step S208 “Yes”), the processing unit 11 determines that the utterance status is the frequency of the spoken word, and the English thesaurus dictionary. (Dictionary) is selected, and a synonym (synonym dictionary search) of a frequently used word (especially in this example) in which the first word is designated is searched (step S209). Then, the processing unit 11 displays the synonym on the display unit 14 based on the synonym search result so that another expression method using another word can be understood as the corresponding learning item according to the designation by the user. (Step S210), and provides the user with a learning item of another expression method using another word.
例えば、学習支援装置10の辞書DBには各種の辞書のデータが格納されており、処理部11は、この中から英語類語辞書(辞典)を選択し、使用頻度が高い単語の類語を検索して類語を表示する処理を行う。 For example, various types of dictionary data are stored in the dictionary DB of the learning support apparatus 10, and the processing unit 11 selects an English synonym dictionary (dictionary) from among these, and searches for synonyms of frequently used words. To display synonyms.
一方、ユーザの操作が第1の単語指定でなかった場合(ステップS208“No”)、処理部11は、第2の識別情報が付加された第2の単語が指定されたかを判定する(ステップS211)。ここで、ユーザの操作が「related」をタッチ操作した第2の単語指定を行う操作でなかった場合(ステップS211“No”)、その他の処理に進むが、ユーザの操作が「related」をタッチ操作した第2の単語指定を行う操作だった場合(ステップS211“Yes”)、処理部11は、発話状況が発話した単語の発話するまでに経過した時間であるとして辞書DBに格納されているデータから例文検索を行う(ステップS212)。そして、処理部11は、ユーザが指定することに応じた対応する学習事項として、発話に時間がかかった単語の使い方がわかるような例文を表示部14に表示(ステップS213)して、ユーザに単語の使い方がわかる例文を学習事項として提供する。 On the other hand, when the user operation is not the first word designation (step S208 “No”), the processing unit 11 determines whether the second word to which the second identification information is added is designated (step S208). S211). If the user operation is not an operation for specifying the second word by touching “related” (step S211 “No”), the process proceeds to other processing, but the user operation touches “related”. If the operation is an operation for specifying the second word (step S211 “Yes”), the processing unit 11 stores the utterance status as the time elapsed until the utterance of the spoken word is stored in the dictionary DB. An example sentence search is performed from the data (step S212). Then, the processing unit 11 displays, on the display unit 14, an example sentence that shows how to use a word that took time to speak as a corresponding learning item according to the designation by the user (step S 213). Provide example sentences that show how to use words as learning items.
そして、ステップS210やステップS213での表示部14への類語や例文の表示が行われた状態で元の画面に戻る操作が行われると、再び、ステップS207の状態に戻る処理が行われる。
なお、上記では、ステップS211がNoの場合、その他の処理に進むとだけ述べたが、例えば、その他の処理としては、次のスピーキング学習に進む処理であったり、スピーキング学習を終了する処理であったりする。
When an operation for returning to the original screen is performed in a state where the synonyms and example sentences are displayed on the display unit 14 in step S210 and step S213, processing for returning to the state in step S207 is performed again.
In the above description, when step S211 is No, only the process proceeds to other processes. For example, the other processes include a process that proceeds to the next speaking learning or a process that ends the speaking learning. Or
上記したように本実施形態に係る学習支援装置10によれば、英語等の語学学習において、ユーザが発話した言葉を音声認識して解析し、使用頻度の高い単語や、発話までに時間を要した単語等を指摘し、それらの単語から辞書検索にジャンプする仕組みを構築することにで、学習機能を充実させることができ、ユーザは、意識することなく苦手な言葉を効率的に克服することができる。 As described above, according to the learning support apparatus 10 according to the present embodiment, in language learning such as English, words spoken by a user are recognized and analyzed, and frequently used words or time is required until utterances. The learning function can be enhanced by pointing out the words that have been used and jumping from those words to a dictionary search, and the user can efficiently overcome difficult words without being aware of them. Can do.
そして、ユーザサイドからすれば、学習支援装置で出題されるスピーキング形式の問題に対して音声により回答を入力し、入力後、自分の回答に対して分析を行い、発話までに要した時間や偏って使用している言葉を抽出し、抽出された自分の弱点である英語表現に関して辞書とリンクさせることで関連する情報を効率的に取得でき、話す上で必要な瞬時の対応力や表現力を効率的に鍛えることができる。 From the user's side, voice answers are input to the speaking-type questions presented by the learning support device. After input, the user's answer is analyzed, and the time and bias required for utterances are analyzed. You can efficiently obtain relevant information by extracting the words you use and linking the extracted English expressions, which are your weak points, with a dictionary, and have the instantaneous correspondence and expressive power necessary for speaking You can train efficiently.
なお、別の機能として「人間関係」、「地理地形関係」、「歴史関係」等を外国語で解説する機能を用意しておいて、スピーキング学習を始めるのに先立って、「人間関係」、「地理地形関係」、「歴史関係」等の問題に対して、どのような回答があるのか等を学習できるようにしておけば、さらに、利便性の良い学習支援装置とすることができる。 In addition, as a separate function, a function to explain "human relations", "geographical landform relations", "history relations", etc. in a foreign language is prepared, and "human relations", If it is possible to learn what answers are given to problems such as “geography and terrain relation” and “history relation”, the learning support apparatus can be made more convenient.
また、ランダムに単語を抽出して問題を出題するだけにとどまらず、「人間関係」、「地理地形関係」、「歴史関係」等といった分野別に出題する問題を編集しておいて、ユーザが学習したい分野を選択し、その選択された分野に応じた問題を出題するようにしても良い。
なお、上記では、ユーザが苦手とする単語を明示する方法としてマーカー表示する方法を示したが、その表示形態は、単語の下にカラーの下線を引いたり、単語の文字の色だけを変えるようにする等適宜変更しても良い。
In addition to extracting words at random, the question is not limited to questions, but the user learns by editing questions that are questioned by field such as “human relations”, “geographical topography relations”, “history relations”, etc. You may make it select the field to want and ask a question according to the selected field.
In the above, the marker display method is shown as a method of clearly indicating the word that the user is not good at. However, the display form is such that the color underline is drawn under the word or only the character color of the word is changed. It may be changed as appropriate.
さらに、上記では、辞書DBを内蔵する学習支援装置である場合を示したが、学習支援装置の態様は、このようなものに限定されるものではない。
例えば、図6に示すように、タブレット端末101とサーバ102とで構成されるような学習支援装置100であっても良い。
Furthermore, although the case where it is the learning assistance apparatus which incorporates dictionary DB was shown above, the aspect of a learning assistance apparatus is not limited to such a thing.
For example, as illustrated in FIG. 6, a learning support apparatus 100 configured by a tablet terminal 101 and a server 102 may be used.
この場合、ユーザが端末(例えば、スマートフォンのようなタブレット端末101)を所持し、IP網等ネットワーク103経由で接続されたサーバ102にタブレット端末101に入力された音声データを送信させ、サーバ102に音声データを認識してテキストに変換する処理を行わせるとともに、当該テキストに含まれる単語の発話状況を判別させ、その判別結果に応じてテキストを識別表示するようにしたデータの作成までを行わせて、識別表示するようにしたテキストデータをタブレット端末101に返信してタブレット端末101に識別表示したテキストデータを表示させるようにすればよい。
このようにすることで、演算量の多い処理を処理能力に余裕があるサーバ102側に行わせることができる。
In this case, the user possesses a terminal (for example, a tablet terminal 101 such as a smartphone), causes the server 102 connected via the network 103 such as an IP network to transmit the voice data input to the tablet terminal 101, and causes the server 102 to Recognize voice data and convert it to text, determine the utterance status of words in the text, and create data that identifies and displays the text according to the determination result Thus, the text data identified and displayed may be returned to the tablet terminal 101 so that the text data identified and displayed on the tablet terminal 101 is displayed.
In this way, processing with a large amount of calculation can be performed on the server 102 side having sufficient processing capacity.
そして、タブレット端末101に表示された識別表示したテキストの少なくとも一部をユーザが指定、例えば、上記例のようにマーカー表示された単語のタッチ指定をすると、再び、この指定に応じて、タブレット端末101がその指定内容をサーバ102側に送信し、その送信された指定内容に基づいて、それに対応する学習事項(類語や例文)をサーバ102側からタブレット端末101側に返信して、タブレット端末101に学習事項(類語や例文)を表示させるようにすればよい。
このようにすれば、学習事項を表示するために行う検索等の演算量の多い処理をサーバ102側に行わせることが可能であり、また、辞書DBなどを記憶容量の大きいサーバ102に持たせることができるので好適である。
このようなタブレット端末101とサーバ102とで構成される学習支援装置100の場合、表示部となるタブレット端末101に音声入力部12を設けることになる。
Then, when the user designates at least a part of the identified and displayed text displayed on the tablet terminal 101, for example, when the touch designation of the word displayed as a marker is performed as in the above example, the tablet terminal again responds to this designation. 101 transmits the designated content to the server 102 side, and based on the transmitted designated content, the learning item (synonyms and example sentences) corresponding to the designated content is returned from the server 102 side to the tablet terminal 101 side. The learning items (synonyms and example sentences) may be displayed on the screen.
In this way, it is possible to cause the server 102 to perform processing with a large amount of calculation such as search performed to display the learning items, and to provide the server 102 with a large storage capacity with a dictionary DB and the like. This is preferable.
In the case of the learning support apparatus 100 configured by such a tablet terminal 101 and the server 102, the voice input unit 12 is provided in the tablet terminal 101 serving as a display unit.
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。
例えば、辞書DB自体はネット経由などでアクセスできるようにしておいて、その他の必要機能を備えさせるようにした学習支援装置であっても良く、上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかであり、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれるものであることは、特許請求の範囲の記載から明らかである。
As mentioned above, although this invention was demonstrated using embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment.
For example, the dictionary DB itself may be a learning support apparatus that can be accessed via the network and the like and provided with other necessary functions, and various modifications or improvements are added to the above embodiment. It will be apparent to those skilled in the art that the embodiments described above are possible, and it is apparent from the scope of the claims that the embodiments added with such changes or improvements are also included in the technical scope of the present invention.
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[請求項1]
入力された音声を認識してテキストに変換する手段と、
前記テキストに含まれる単語の発話状況を判別する手段と、
判別結果に応じて前記テキストを識別表示するように制御する手段と、
前記識別表示された前記テキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を提供する手段と、
を備えたことを特徴とする学習支援装置。
[請求項2]
例文検索する手段を備え、
前記発話状況は、発話されるまでに経過した時間であり、前記例文検索する手段で、前記時間が所定の時間を超えた単語について、例文検索を実行して前記学習事項とすることを特徴とする請求項1に記載の学習支援装置。
[請求項3]
類語検索する手段を備え、
前記発話状況は、発話した単語の頻度であり、前記類語検索する手段で、所定の頻度を超える単語について、類語検索を実行して前記学習事項とすることを特徴とする請求項1に記載の学習支援装置。
[請求項4]
音声入力手段と、問題を表示する表示部と、を備え、
前記表示部に問題を表示し、前記問題に対する回答を音声で入力させることを特徴とする請求項1に記載の学習支援装置。
[請求項5]
学習支援装置のコンピュータに、
入力された音声を認識してテキストに変換する手順と、
前記テキストに含まれる単語の発話状況を判別する手順と、
判別結果に応じて前記テキストを識別表示するように制御する手順と、
前記識別表示された前記テキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を提供する手順と、
を実行させるプログラム。
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Claim 1]
Means for recognizing input speech and converting it to text;
Means for determining the utterance status of a word included in the text;
Means for controlling and displaying the text according to the determination result;
Means for providing corresponding learning items in response to a user specifying at least a portion of the identified and displayed text;
A learning support apparatus characterized by comprising:
[Claim 2]
It has a means to search for example sentences,
The utterance state is a time elapsed until the utterance is made, and the means for searching for example sentences performs an example sentence search for the words for which the time exceeds a predetermined time as the learning items. The learning support device according to claim 1.
[Claim 3]
A means to search for synonyms,
The utterance status is the frequency of spoken words, and the synonym search means executes synonym search on the words that exceed a predetermined frequency to make the learning items. Learning support device.
[Claim 4]
A voice input means and a display unit for displaying a problem;
The learning support apparatus according to claim 1, wherein a problem is displayed on the display unit, and an answer to the problem is input by voice.
[Claim 5]
In the computer of the learning support device,
Recognizing input speech and converting it to text,
A procedure for determining the utterance status of a word included in the text;
A procedure for controlling to identify and display the text according to the determination result;
Providing a learning item corresponding to a user specifying at least a part of the identified and displayed text;
A program that executes
10 学習支援装置
11 処理部
12 音声入力部
13 入力部
14 表示部
15 記憶部
16 VRAM
100 学習支援装置
101 タブレット端末
102 サーバ
103 ネットワーク
DESCRIPTION OF SYMBOLS 10 Learning support apparatus 11 Processing part 12 Voice input part 13 Input part 14 Display part 15 Memory | storage part 16 VRAM
100 learning support apparatus 101 tablet terminal 102 server 103 network
Claims (5)
前記テキストに含まれる単語の発話状況を判別する手段と、
判別結果に応じて前記テキストを識別表示するように制御する手段と、
前記識別表示された前記テキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を提供する手段と、
を備えたことを特徴とする学習支援装置。 Means for recognizing input speech and converting it to text;
Means for determining the utterance status of a word included in the text;
Means for controlling and displaying the text according to the determination result;
Means for providing corresponding learning items in response to a user specifying at least a portion of the identified and displayed text;
A learning support apparatus characterized by comprising:
前記発話状況は、発話されるまでに経過した時間であり、前記例文検索する手段で、前記時間が所定の時間を超えた単語について、例文検索を実行して前記学習事項とすることを特徴とする請求項1に記載の学習支援装置。 It has a means to search for example sentences,
The utterance state is a time elapsed until the utterance is made, and the means for searching for example sentences performs an example sentence search for the words for which the time exceeds a predetermined time as the learning items. The learning support device according to claim 1.
前記発話状況は、発話した単語の頻度であり、前記類語検索する手段で、所定の頻度を超える単語について、類語検索を実行して前記学習事項とすることを特徴とする請求項1に記載の学習支援装置。 A means to search for synonyms,
The utterance status is the frequency of spoken words, and the synonym search means executes synonym search on the words that exceed a predetermined frequency to make the learning items. Learning support device.
前記表示部に問題を表示し、前記問題に対する回答を音声で入力させることを特徴とする請求項1に記載の学習支援装置。 A voice input means and a display unit for displaying a problem;
The learning support apparatus according to claim 1, wherein a problem is displayed on the display unit, and an answer to the problem is input by voice.
入力された音声を認識してテキストに変換する手順と、
前記テキストに含まれる単語の発話状況を判別する手順と、
判別結果に応じて前記テキストを識別表示するように制御する手順と、
前記識別表示された前記テキストの少なくとも一部をユーザが指定することに応じて対応する学習事項を提供する手順と、
を実行させるプログラム。 In the computer of the learning support device,
Recognizing input speech and converting it to text,
A procedure for determining the utterance status of a word included in the text;
A procedure for controlling to identify and display the text according to the determination result;
Providing a learning item corresponding to a user specifying at least a part of the identified and displayed text;
A program that executes
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015178654A JP6746886B2 (en) | 2015-09-10 | 2015-09-10 | Learning support device and program for the learning support device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015178654A JP6746886B2 (en) | 2015-09-10 | 2015-09-10 | Learning support device and program for the learning support device |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2017054038A true JP2017054038A (en) | 2017-03-16 |
| JP2017054038A5 JP2017054038A5 (en) | 2018-10-25 |
| JP6746886B2 JP6746886B2 (en) | 2020-08-26 |
Family
ID=58320742
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015178654A Active JP6746886B2 (en) | 2015-09-10 | 2015-09-10 | Learning support device and program for the learning support device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6746886B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020071312A (en) * | 2018-10-30 | 2020-05-07 | 株式会社プログリット | Method and system for evaluating linguistic ability |
| JPWO2021117114A1 (en) * | 2019-12-10 | 2021-06-17 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002175095A (en) * | 2000-12-08 | 2002-06-21 | Tdk Corp | Pronunciation learning system |
| JP2005293189A (en) * | 2004-03-31 | 2005-10-20 | Casio Comput Co Ltd | Information display control device, electronic dictionary program |
| JP2012215645A (en) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | Foreign language conversation training system using computer |
| JP2013512461A (en) * | 2009-12-16 | 2013-04-11 | 浦項工科大學校 産學協力團 | Foreign language learning apparatus and dialogue system |
| WO2014147767A1 (en) * | 2013-03-19 | 2014-09-25 | 楽天株式会社 | Document processing device, document processing method, program, and information storage medium |
| US20150248898A1 (en) * | 2014-02-28 | 2015-09-03 | Educational Testing Service | Computer-Implemented Systems and Methods for Determining an Intelligibility Score for Speech |
-
2015
- 2015-09-10 JP JP2015178654A patent/JP6746886B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002175095A (en) * | 2000-12-08 | 2002-06-21 | Tdk Corp | Pronunciation learning system |
| JP2005293189A (en) * | 2004-03-31 | 2005-10-20 | Casio Comput Co Ltd | Information display control device, electronic dictionary program |
| JP2013512461A (en) * | 2009-12-16 | 2013-04-11 | 浦項工科大學校 産學協力團 | Foreign language learning apparatus and dialogue system |
| JP2012215645A (en) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | Foreign language conversation training system using computer |
| WO2014147767A1 (en) * | 2013-03-19 | 2014-09-25 | 楽天株式会社 | Document processing device, document processing method, program, and information storage medium |
| US20150248898A1 (en) * | 2014-02-28 | 2015-09-03 | Educational Testing Service | Computer-Implemented Systems and Methods for Determining an Intelligibility Score for Speech |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020071312A (en) * | 2018-10-30 | 2020-05-07 | 株式会社プログリット | Method and system for evaluating linguistic ability |
| JPWO2021117114A1 (en) * | 2019-12-10 | 2021-06-17 | ||
| WO2021117114A1 (en) * | 2019-12-10 | 2021-06-17 | 日本電信電話株式会社 | Learning assistance device, learning assistance method, and program |
| JP7294451B2 (en) | 2019-12-10 | 2023-06-20 | 日本電信電話株式会社 | LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD, AND PROGRAM |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6746886B2 (en) | 2020-08-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6588637B2 (en) | Learning personalized entity pronunciation | |
| US10777193B2 (en) | System and device for selecting speech recognition model | |
| JP6570651B2 (en) | Voice dialogue apparatus and voice dialogue method | |
| JP2016045420A (en) | Pronunciation learning support device and program | |
| KR20190021143A (en) | Voice data processing method and electronic device supporting the same | |
| JP2017058673A (en) | Dialog processing apparatus and method and intelligent dialog processing system | |
| JP2002116796A (en) | Voice processor and method for voice processing and storage medium | |
| JP2015153108A (en) | Voice conversation support apparatus, voice conversation support method and program | |
| US20250117590A1 (en) | Interaction method and apparatus, computer device, and storage medium | |
| JP2016061855A (en) | Audio learning device and control program | |
| JP2009042968A (en) | Information selection system, information selection method, and program for information selection | |
| US20110161068A1 (en) | System and method of using a sense model for symbol assignment | |
| CN112805734A (en) | Speech assistance device for calling attention to speech inhibition words | |
| KR100593589B1 (en) | Multilingual Interpretation / Learning System Using Speech Recognition | |
| JP6746886B2 (en) | Learning support device and program for the learning support device | |
| CN115904172A (en) | Electronic device, learning assistance system, learning processing method and program | |
| Pyae | A usability evaluation of the Google Home with non-native English speakers using the system usability scale | |
| JP2018066968A (en) | Word learning support device, word learning support program, and word learning support method | |
| JP6641680B2 (en) | Audio output device, audio output program, and audio output method | |
| KR102883520B1 (en) | Artificial intelligence speaker and talk progress method using the artificial intelligence speaker | |
| JP7371644B2 (en) | Pronunciation training program and terminal device | |
| JP7395892B2 (en) | Electronic devices, vocabulary learning methods, and programs | |
| JP2007193166A (en) | Dialog device, dialog method, and program | |
| US20210064640A1 (en) | Information processing apparatus and information processing method | |
| JP7013702B2 (en) | Learning support device, learning support method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180907 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180907 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20180907 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190627 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190826 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200302 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200720 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6746886 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |