[go: up one dir, main page]

JP2022000771A - Learning control method and learning system - Google Patents

Learning control method and learning system Download PDF

Info

Publication number
JP2022000771A
JP2022000771A JP2021142307A JP2021142307A JP2022000771A JP 2022000771 A JP2022000771 A JP 2022000771A JP 2021142307 A JP2021142307 A JP 2021142307A JP 2021142307 A JP2021142307 A JP 2021142307A JP 2022000771 A JP2022000771 A JP 2022000771A
Authority
JP
Japan
Prior art keywords
data
voice
lecture
instruction
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021142307A
Other languages
Japanese (ja)
Other versions
JP7279754B2 (en
Inventor
孝 湖城
Takashi Koshiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021142307A priority Critical patent/JP7279754B2/en
Publication of JP2022000771A publication Critical patent/JP2022000771A/en
Application granted granted Critical
Publication of JP7279754B2 publication Critical patent/JP7279754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】撮影専用の特別講義を行なう必要なく、利用者にとって適切に利用できる講義データを得ることが可能な講義データ送信方法を提供する。【解決手段】講義対象の電子教科書のテキストTxをタッチパネル付き表示部17に表示させ、当該テキストTxの各講義項目等を、講義者LeがペンPによるタッチ操作や音声により指示しながら説明(発声)して各受講者St…に対する講義を行う。CPUは、表示中のテキストTxに対するタッチ操作での指示あるいは音声を認識することによる指示を検知する毎に、前回の指示を検知したタイミング以降で今回の指示を検知したタイミング以前に音声入力部で入力して取得した講義者音声データHを含む講義中の音声データを、前回の指示に応じたテキスト位置のデータに対応付けて、順次、講義データとして講義データエリア又は教育コンテンツサーバに送信して登録する。【選択図】 図1Kind Code: A1 A lecture data transmission method capable of obtaining lecture data that can be appropriately used by a user without having to conduct a special lecture dedicated to photographing is provided. A text Tx of an electronic textbook to be lectured is displayed on a display unit 17 with a touch panel, and each lecture item of the text Tx is explained (voiced) by a lecturer Le while instructing by touch operation with a pen P or voice. ) and give a lecture to each student St. Each time the CPU detects an instruction by a touch operation or an instruction by recognizing a voice with respect to the text Tx being displayed, the voice input unit performs the The voice data during the lecture including the lecturer voice data H input and acquired is associated with the data of the text position according to the previous instruction, and sequentially transmitted as lecture data to the lecture data area or the educational content server. sign up. [Selection diagram] Fig. 1

Description

本発明は、講義者が行う講義を効果的に利用するためのデータ送信方法、データ送信装置及びその制御プログラムに関する。 The present invention relates to a data transmission method, a data transmission device, and a control program thereof for effectively using a lecture given by a lecturer.

近年、教科の学習単元毎に、動画教材が作成され、作成された動画教材を学習者が視聴して学習することが盛んに行われている。 In recent years, video teaching materials have been created for each learning unit of a subject, and learners have been actively watching and learning the created video teaching materials.

動画教材を生成する講義録画システムであって、講師が使用する講義用携帯端末から講義用ディスプレイに表示させるプレゼンテーション用の画面の映像と、講義撮影用カメラにより講義を撮影した映像とを、講義用マイクロホンで入力した講師の音声と共に録画用PCにて合成して録画し、動画教材を生成することが考えられている(例えば、特許文献1参照。)。 It is a lecture recording system that generates video teaching materials, and the video of the screen for the presentation displayed on the lecture display from the mobile terminal for the lecture used by the lecturer and the video of the lecture taken by the camera for shooting the lecture are used for the lecture. It is conceivable to synthesize and record a video teaching material together with a lecturer's voice input by a microphone on a recording PC (see, for example, Patent Document 1).

特開2016−144073号公報Japanese Unexamined Patent Publication No. 2016-144073

従来の講義録画システムにより動画教材を生成するには、動画編集の技術と手間が掛かるだけでなく、講義用ディスプレイに表示されるプレゼンテーション用の画面の映像や当該画面に対し講師が指示する位置が講義撮影用カメラにより上手く撮影できるように、講師がカメラの位置に注意して移動する必要がある。 Generating video teaching materials using a conventional lecture recording system not only requires video editing technology and labor, but also the video of the presentation screen displayed on the lecture display and the position instructed by the instructor on the screen. It is necessary for the instructor to pay attention to the position of the camera and move it so that the lecture camera can take a good picture.

このため、動画教材を撮影するための講義は、撮影専用の特別講義として行っているのが殆どである。また、従来の動画教材は、対象とする学習単元の講義を通しで撮影、録画して生成されるので、例えば、講義テキストの項目毎に学習の範囲を分けて利用しづらい問題がある。 For this reason, most of the lectures for shooting video teaching materials are given as special lectures dedicated to shooting. Further, since the conventional video teaching material is generated by shooting and recording through the lecture of the target learning unit, for example, there is a problem that it is difficult to divide the learning range for each item of the lecture text and use it.

本発明は、このような課題に鑑みなされたもので、利用者にとって適切に利用できる講義データを得ることが可能なデータ送信方法、データ送信装置及びその制御プログラムを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a data transmission method, a data transmission device, and a control program thereof capable of obtaining lecture data that can be appropriately used by a user.

本発明に係るデータ送信方法は、電子機器のデータ送信方法であって、対象のテキストデータを取得するテキスト取得ステップと、前記テキスト取得ステップにより取得されたテキストデータを前記電子機器の表示部に表示させるテキスト表示制御ステップと、前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知ステップと、前記電子機器の音声入力部に入力された音声データを取得する音声取得制御ステップと、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御ステップと、からなる。 The data transmission method according to the present invention is a data transmission method for an electronic device, in which a text acquisition step for acquiring a target text data and a text data acquired by the text acquisition step are displayed on the display unit of the electronic device. A text display control step to be generated, a user instruction detection step to detect a user's instruction to the text data displayed on the display unit, and a voice acquisition control step to acquire voice data input to the voice input unit of the electronic device. For each detection of the user's instruction by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is subjected to the previous instruction. It consists of a data transmission control step for transmitting in association with the position of text data.

本発明によれば、利用者にとって適切に利用できる講義データを得ることが可能になる。 According to the present invention, it becomes possible to obtain lecture data that can be appropriately used by the user.

本発明のデータ送信装置の実施形態に係る電子黒板(講義者端末)10の外観構成を示す概念図。The conceptual diagram which shows the appearance structure of the electronic blackboard (lecture terminal) 10 which concerns on embodiment of the data transmission apparatus of this invention. 前記電子黒板(講義者端末)10の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データエリア12cに登録した講義データ12c1の一例を示す図。The figure which shows an example of the lecture data 12c1 registered in the lecture data area 12c of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理(その1)を示すフローチャート。The flowchart which shows the lecture data transmission process (the 1) of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理(その2)を示すフローチャート。The flowchart which shows the lecture data transmission process (the 2) of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その1)を示す図。The figure which shows the display operation (the 1) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その2)を示す図。The figure which shows the display operation (part 2) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その3)を示す図。The figure which shows the display operation (the 3) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その4)を示す図。The figure which shows the display operation (the 4) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その5)を示す図。The figure which shows the display operation (the 5) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その6)を示す図。The figure which shows the display operation (the 6) of the lecture contents corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その7)を示す図。The figure which shows the display operation (the 7) of the lecture contents corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その8)を示す図。The figure which shows the display operation (the 8) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その9)を示す図。The figure which shows the display operation (the 9) of the lecture contents corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その10)を示す図。The figure which shows the display operation (the 10) of the lecture contents corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その11)を示す図。The figure which shows the display operation (11) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その12)を示す図。The figure which shows the display operation (part 12) of the lecture content corresponding to the user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. 前記電子黒板(講義者端末)10の講義データ送信処理に従い生成された講義データ12cnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12cnの表示再生動作(その1)を示す図。Display / playback operation of lecture data 12cn according to user (student) operation on the student terminal 20 that received the lecture data 12cn generated according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10 (No. 1) The figure which shows. 前記電子黒板(講義者端末)10の講義データ送信処理に従い生成された講義データ12cnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12cnの表示再生動作(その2)を示す図。Display / playback operation of lecture data 12cn according to user (student) operation on the student terminal 20 that received the lecture data 12cn generated according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10 (Part 2) The figure which shows. 前記電子黒板(講義者端末)10の講義データ送信処理に従い生成された講義データ12cnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12cnの表示再生動作(その3)を示す図。Display / playback operation of lecture data 12cn according to user (student) operation on the student terminal 20 that received the lecture data 12cn generated according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10 (Part 3) The figure which shows. 前記電子黒板(講義者端末)10の講義データ送信処理に従い生成された講義データ12cnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12cnの表示再生動作(その4)を示す図。Display / playback operation of lecture data 12cn according to user (student) operation on the student terminal 20 that received the lecture data 12cn generated according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10 (No. 4) The figure which shows. 前記電子黒板(講義者端末)10の講義データ送信処理に従い生成された講義データ12cnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12cnの表示再生動作(その5)を示す図。Display / playback operation of lecture data 12cn according to user (student) operation on the student terminal 20 that received the lecture data 12cn generated according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10 (No. 5) The figure which shows.

以下図面により本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明のデータ送信装置の実施形態に係る電子黒板(講義者端末)10の外観構成を示す概念図である。 FIG. 1 is a conceptual diagram showing an external configuration of an electronic blackboard (lecture terminal) 10 according to an embodiment of the data transmission device of the present invention.

前記電子黒板(講義者端末)10は、図1に示すように、講義用の黒板や白板に代る広さの表示画面を有するタッチパネル(タッチ位置検出装置)付きカラー表示部17、図示しない音声入力部(マイク)及び音声出力部(スピーカ)を備える。 As shown in FIG. 1, the electronic blackboard (lecture terminal) 10 includes a color display unit 17 with a touch panel (touch position detection device) having a display screen larger than that of a blackboard for lectures or a white board, and audio (not shown). It is equipped with an input unit (mic) and an audio output unit (speaker).

なお、前記電子黒板(講義者端末)10は、タブレット端末やタッチパネル付き表示部を備えたパーソナルコンピュータ等により構成し、当該パーソナルコンピュータ等により生成されて表示される表示データを、講義用の大画面の表示装置に表示させてもよい。 The electronic blackboard (lecture terminal) 10 is composed of a tablet terminal, a personal computer equipped with a display unit with a touch panel, or the like, and the display data generated and displayed by the personal computer or the like is displayed on a large screen for lectures. It may be displayed on the display device of.

また、前記電子黒板(講義者端末)10は、自らは表示機能を持たない通常の黒板(又は白板)と、電子教科書等の講義対象のテキストの画像を前記黒板(又は白板)上に投影して表示させるプロジェクタ装置と、音声入力装置及び音声出力装置と、前記黒板(又は白板)に表示させた講義対象テキスト上でのペンPの指定位置を検出するペン位置センサと、を備えて構成してもよい。 Further, the electronic blackboard (lecture terminal) 10 projects an image of a normal blackboard (or whiteboard) that does not have a display function by itself and an image of a text to be lectured such as an electronic textbook on the blackboard (or whiteboard). A projector device, a voice input device, a voice output device, and a pen position sensor for detecting a designated position of the pen P on the text to be lectured displayed on the blackboard (or whiteboard) are provided. You may.

以下、タッチパネル付きカラー表示部17を備えた電子黒板(講義者端末)10について説明する。 Hereinafter, an electronic blackboard (lecture terminal) 10 provided with a color display unit 17 with a touch panel will be described.

前記電子黒板(講義者端末)10は、講義対象のテキスト(教科書)Txの見開きページのデータを表示する。講師Leは、ペンPを使用して前記電子黒板(講義者端末)10に表示されたテキスト(教科書)Txの説明すべき各位置をタッチ操作で指定しながら講義を行なう。なお、黒板の表示テキスト(教科書)Txを見やすくするために、黒板を実際の1.5倍の長さに拡大して図面化した。図面では、講師Leは黒板の上側の位置にタッチするのが困難に見えるが、先生も1.5倍に拡大されると仮定して以下の説明を理解されたい。 The electronic blackboard (lecture terminal) 10 displays the data of the spread page of the text (textbook) Tx to be lectured. The instructor Le gives a lecture while using the pen P to specify each position to be explained of the text (textbook) Tx displayed on the electronic blackboard (lecture terminal) 10 by a touch operation. In order to make the display text (textbook) Tx on the blackboard easier to see, the blackboard was enlarged to 1.5 times the actual length and made into a drawing. In the drawing, it seems difficult for the instructor Le to touch the upper position of the blackboard, but please understand the following explanation assuming that the teacher is also magnified 1.5 times.

各受講者(生徒等)St…は、受講者端末(タブレット端末等)20…を持ち、受講者端末(タブレット端末等)20に前記講義対象のテキスト(教科書)Txの見開きページを表示させて講義を受ける。 Each student (student, etc.) St ... has a student terminal (tablet terminal, etc.) 20 ... and causes the student terminal (tablet terminal, etc.) 20 to display the spread page of the text (textbook) Tx to be lectured. Take a lecture.

図2は、前記電子黒板(講義者端末)10の電子回路の構成を示すブロック図である。 FIG. 2 is a block diagram showing a configuration of an electronic circuit of the electronic blackboard (lecture terminal) 10.

前記電子黒板(講義者端末)10は、コンピュータであるCPU11を備える。前記CPU11は、フラッシュROMなどのメモリ12に予め記憶された講義データ送信処理プログラム12aに従って回路各部の動作を制御する。なお、講義データ送信処理プログラム12aは、メモリカードなどの外部記録媒体13から記録媒体読取部14により読み取って前記メモリ12に記憶してもよいし、通信ネットワーク(インターネット)N上のWebサーバ30から通信部(インターネット通信)15を介しダウンロードして前記メモリ12に記憶してもよい。 The electronic blackboard (lecture terminal) 10 includes a CPU 11 which is a computer. The CPU 11 controls the operation of each part of the circuit according to the lecture data transmission processing program 12a stored in advance in the memory 12 such as the flash ROM. The lecture data transmission processing program 12a may be read from an external recording medium 13 such as a memory card by the recording medium reading unit 14 and stored in the memory 12, or may be stored in the memory 12 from the Web server 30 on the communication network (Internet) N. It may be downloaded via the communication unit (Internet communication) 15 and stored in the memory 12.

前記CPU11には、前記メモリ12、記録媒体読取部14、通信部15を接続する他に、キー入力部16、タッチパネル付きカラー表示部17、音声入力部(マイク)(又は音声付き動画入力部(マイク付カメラ))18a、音声出力部(スピーカ)18b、近距離無線通信部(Bluetooth(登録商標)等)19を接続する。 In addition to connecting the memory 12, the recording medium reading unit 14, and the communication unit 15, the CPU 11 has a key input unit 16, a color display unit 17 with a touch panel, an audio input unit (microphone) (or a moving image input unit with audio) (or a moving image input unit with audio). A camera with a microphone)) 18a, an audio output unit (speaker) 18b, and a short-range wireless communication unit (Bluetooth (registered trademark), etc.) 19 are connected.

また、前記メモリ12には、電子教科書データエリア12b、講義データエリア12c、受講者データエリア12dなどを確保する。 Further, in the memory 12, an electronic textbook data area 12b, a lecture data area 12c, a student data area 12d, and the like are secured.

前記電子教科書データエリア12bは、例えば、中学1年英語、中学英語2年英語等、各教科各学年の電子教科書(テキスト)Txそれぞれのデータを記憶し、語学テキストの場合は、更に、本文模範音声データ、基本文模範音声データ、単語模範音声データも含めて記憶する。 The electronic textbook data area 12b stores data of each electronic textbook (text) Tx of each subject, such as junior high school 1st grade English, junior high school English 2nd grade English, etc., and in the case of a language text, further text model. Stores voice data, basic sentence model voice data, and word model voice data.

前記講義データエリア12cには、例えば、各教科各学年各組の時間割りに従い各時限にて講義者が行った講義の音声データを、講義対象のテキスト(Tx)の講義者Leが指示した位置に対応付けた講義データ(4月25日_2時間目_中学2年英語P18−19(2年3組))12c1,(4月23日_4時間目_中学2年英語P18−19(2年1組))12c2,(4月21日_1時間目_中学2年英語P17−18(2年1組))12c3,…として登録する。 In the lecture data area 12c, for example, the audio data of the lecture given by the lecturer at each time period according to the time schedule of each group of each subject is in the position designated by the lecturer Le of the text (Tx) to be lectured. Lecture data associated with (April 25_2nd hour_Junior high school 2nd grade English P18-19 (2nd grade 3rd group)) 12c1, (April 23_4th hour_Junior high school 2nd grade English P18-19 (April 23_4th hour) 2nd grade 1 group)) 12c2 (April 21st-1st hour_Junior high school 2nd grade English P17-18 (2nd grade 1st group)) 12c3, ...

図3は、前記電子黒板(講義者端末)10の講義データエリア12cに登録した講義データ12c1の一例を示す図である。 FIG. 3 is a diagram showing an example of lecture data 12c1 registered in the lecture data area 12c of the electronic blackboard (lecture terminal) 10.

前記講義データ12c1は、前記CPU11が、前記電子教科書データエリア12bに記憶した講義対象のテキスト(Tx)に対する講義者Leの指示操作(タッチ操作による指示と音声操作による指示を含む)を検知する毎に、当該指示の内容と、当該指示に対応する時間と、当該指示に対応するテキスト位置と、当該指示に対応する項目(マーク)等の講義内容とに対して、前回の指示操作の検知から今回の指示操作の検知以前まで前記音声入力部18aにより入力した講義者Le等の音声データを対応付けて前記講義データエリア12cに登録する。 Each time the lecture data 12c1 detects an instruction operation (including an instruction by touch operation and an instruction by voice operation) of the lecturer Le with respect to the text (Tx) to be lectured stored in the electronic textbook data area 12b by the CPU 11. From the detection of the previous instruction operation for the content of the instruction, the time corresponding to the instruction, the text position corresponding to the instruction, and the lecture content such as the item (mark) corresponding to the instruction. Before the detection of the instruction operation this time, the voice data of the lecturer Le or the like input by the voice input unit 18a is associated and registered in the lecture data area 12c.

前記講義データ12c1,12c2,12c3,…において、講義者Leの指示に対応する項目等の内容としては、当該指示に対応するテキスト位置の項目(マーク)をアイコン化したデータとそのアイコンに応じた動作制御の内容を含む。 In the lecture data 12c1, 12c2, 12c3, ..., The content of the item corresponding to the instruction of the lecturer Le corresponds to the data in which the item (mark) at the text position corresponding to the instruction is iconified and the icon thereof. Includes the contents of operation control.

前記受講者データエリア12dは、各受講者(生徒等)St…が使用する受講者端末(タブレット端末等)20…の通信アドレス等を記憶する。 The student data area 12d stores a communication address or the like of a student terminal (tablet terminal or the like) 20 ... used by each student (student or the like) St.

なお、前記電子教科書データエリア12bが記憶する各種の電子教科書(テキスト)Txそれぞれのデータは、前記講義データ送信処理プログラム12aに従った本電子黒板(講義者端末)10の動作上の必要に応じて、前記通信ネットワーク(インターネット)N上の教育コンテンツサーバ30から、前記通信部15を介しダウンロードして取得する構成としてもよい。 The data of each of the various electronic textbooks (textbooks) Tx stored in the electronic textbook data area 12b is according to the operational necessity of the electronic blackboard (lecture terminal) 10 according to the lecture data transmission processing program 12a. The data may be downloaded and acquired from the educational content server 30 on the communication network (Internet) N via the communication unit 15.

また、前記講義データエリア12cに登録する講義データ12c1,12c2,12c3,…は、当該講義データ12cnを生成する処理の過程で前記教育コンテンツサーバ30に送信して登録してもよいし、各時限の講義毎に前記講義データエリア12cに登録した講義データ12cnを一括して前記教育コンテンツサーバ30に送信して登録してもよい。 Further, the lecture data 12c1, 12c2, 12c3, ... Registered in the lecture data area 12c may be transmitted to the educational content server 30 and registered in the process of generating the lecture data 12cn, or each time period. The lecture data 12cn registered in the lecture data area 12c may be collectively transmitted to the educational content server 30 and registered for each lecture.

また、前記受講者データエリア12dが記憶する各受講者(生徒等)St…のデータも、前記講義データ送信処理プログラム12aに従った本電子黒板(講義者端末)10の動作上の必要に応じて、前記通信ネットワーク(インターネット)N上の教育コンテンツサーバ30から、前記通信部15を介しダウンロードして取得する構成としてもよい。 Further, the data of each student (student, etc.) St ... stored in the student data area 12d is also as necessary for the operation of the electronic blackboard (lecture terminal) 10 according to the lecture data transmission processing program 12a. The data may be downloaded and acquired from the educational content server 30 on the communication network (Internet) N via the communication unit 15.

このように構成された電子黒板(講義者端末)10は、前記CPU11が、前記講義データ送信処理プログラム12aに記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、以下の動作説明で述べるような、実際の受講者St…を対象とした講義からの講義データ12cnの生成機能とその送信機能とを実現する。 In the electronic blackboard (lecture terminal) 10 configured in this way, the CPU 11 controls the operation of each part of the circuit according to the instruction described in the lecture data transmission processing program 12a, and the software and the hardware cooperate with each other. By operating the system, a function of generating 12 cn of lecture data from a lecture targeting an actual student St ... and a function of transmitting the same, as described in the following operation explanation, are realized.

次に、前記構成の電子黒板(講義者端末)10の動作について説明する。 Next, the operation of the electronic blackboard (lecture terminal) 10 having the above configuration will be described.

図4、図5は、前記電子黒板(講義者端末)10の講義データ送信処理(その1)(その2)を示すフローチャートである。 4 and 5 are flowcharts showing the lecture data transmission process (No. 1) (No. 2) of the electronic blackboard (lecture terminal) 10.

図6A〜図6D、図7A〜図7D、図8A〜図8Dは、前記電子黒板(講義者端末)10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義内容の表示動作(その1〜4)(その5〜8)(その9〜12)を示す図である。 6A to 6D, FIGS. 7A to 7D, and FIGS. 8A to 8D show a lecture content display operation according to a user (lecture) operation according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. It is a figure which shows (1-4) (5-8) (9-12).

先ず、図6Aに示すように、ユーザ(講義者Le)によるキー入力部16の電源キーの操作、又は表示部17のタッチ操作に応じて、電子黒板(講義者端末)10の電源がオンになると(ステップS1(Yes))、CPU11は、時計カウンタTによる講義時間のカウントを開始する。また、電子教科書データエリア12bが記憶している各教科各学年の電子教科書の教科書アイコン(ここでは[文型ドリル1年]TX1,[中学1年英語]TX2,[中学2年英語]TX3)を読み出し、前記表示部17に一覧にして表示し、また、音声入力部18aによる音声入力を開始する(ステップS2)。 First, as shown in FIG. 6A, the power of the electronic blackboard (lecture terminal) 10 is turned on in response to the operation of the power key of the key input unit 16 by the user (lecture Le) or the touch operation of the display unit 17. Then (step S1 (Yes)), the CPU 11 starts counting the lecture time by the clock counter T. In addition, the textbook icon of the electronic textbook of each subject and grade stored in the electronic textbook data area 12b (here, [Sentence pattern drill 1st year] TX1, [Junior high school 1st year English] TX2, [Junior high school 2nd year English] TX3) It is read out, displayed as a list on the display unit 17, and the voice input by the voice input unit 18a is started (step S2).

この際、講義者(講師等)Leは、例えば「おはよう。みんな元気かな?出席をとります。…今日もがんばっていこう。」と発声し、前記音声入力部18aがその講義者音声データHを入力する。 At this time, the lecturer (lecturer, etc.) Le utters, for example, "Good morning. How are you all? I will attend .... Let's do our best today.", And the voice input unit 18a inputs the lecturer's voice data H. do.

次に、前記講義者Leは、ペンPにより、前記表示部17に一覧表示されている教科書アイコンTX1,TX2,TX3の中の[中学2年英語]TX3をタッチ操作して指示し、「『中学2年英語』の『教科書のP18』を開いて!」と発声する。 Next, the lecturer Le touches and instructs [Junior high school second grade English] TX3 in the textbook icons TX1, TX2, and TX3 listed on the display unit 17 with the pen P, and "" ". Open "Textbook P18" of "English in the second year of junior high school!"

CPU11は、前記教科書アイコン[中学2年英語]TX3に対する指示を検知し(ステップS3(Yes))、教科書アイコンTXnに対する最初の指示の検知であると判断すると(ステップS4(Yes))、当該指示された教科書アイコン[中学2年英語]TX3、現在の日時、講義対象のクラス、前回の講義で表示した同教科書[中学2年英語]の見開きページに基づいて、講義データ12c1のヘッダ(ここでは[4月25日_2時間目_中学2年英語P18−19(2年3組)])を生成し、メモリ12内の講義データエリア12cに登録する(ステップS5)。 When the CPU 11 detects the instruction to the textbook icon [second grade English] TX3 (step S3 (Yes)) and determines that the first instruction to the textbook icon TXn is detected (step S4 (Yes)), the instruction is given. Based on the textbook icon [Junior High School 2nd grade English] TX3, the current date and time, the class to be lectured, and the spread page of the same textbook [Junior High School 2nd grade English] displayed in the previous lecture, the header of the lecture data 12c1 (here) [April 25_2nd hour_Junior high school 2nd grade English P18-19 (2nd grade 3 groups)]) is generated and registered in the lecture data area 12c in the memory 12 (step S5).

またCPU11は、前記電源オンのときから前記教科書アイコン[中学2年英語]TX3に対する指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「おはよう。みんな元気かな?出席をとります。…今日もがんばっていこう。」を、前記電源オンの指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[00:00]と、前記電源オンの指示に対応する[開始]アイコン及びその動作制御(再生開始)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1のヘッダに続けて登録する(ステップS6)。 Further, the CPU 11 is the lecturer voice data H “Good morning. How are you? I will attend .... I will do my best today. ", The instruction data for turning on the power, the lecture time data [00:00] by the clock counter T at the time of the instruction, and the turning on the power. It is registered in the header of the lecture data 12c1 in the lecture data area 12c in association with the [start] icon corresponding to the instruction and the data of the operation control (reproduction start) (step S6).

そしてCPU11は、図6Bに示すように、前記教科書アイコン[中学2年英語]TX3に対する指示を検知したタイミング以降に前記音声入力部18aにより入力された講義者音声データH「『中学2年英語』の『教科書のP18』を開いて!みななはGWの予定はもう立てたかな?今日は、予定をあらわす英語の勉強だよ!」を、[イントロ]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P18]のデータとに対応付けて取得していき、当該教科書[中学2年英語]の見開きページP18−19のテキストTxを表示部17に表示させる(ステップS7)。 Then, as shown in FIG. 6B, the CPU 11 has the lecturer voice data H ““ junior high school second grade English ”” input by the voice input unit 18a after the timing when the instruction to the textbook icon [junior high school second grade English] TX3 is detected. Open "Textbook P18"! Have you made a plan for GW yet? Today, I'm studying English to show the plan! ", [Intro] icon and the above textbook [English in the second year of junior high school] The text Tx of the spread page P18-19 of the textbook [junior high school second grade English] is displayed on the display unit 17 in association with the data of the page position [middle 2 English; P18] (step S7). ..

次に、講義者Leは、ペンPにより、前記表示部17に表示されたテキストTxの本文Bu1の音声アイコンSPをタッチ操作して指示する。 Next, the lecturer Le touches and instructs the voice icon SP of the text Bu1 of the text Tx displayed on the display unit 17 with the pen P.

CPU11は、前記表示中のテキストTxの本文Bu1の音声アイコンSPに対する指示を検知すると(ステップS8(Yes))、前記教科書アイコン[中学2年英語]TX3に対する指示を検知したときから前記音声アイコンSPに対する指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『中学2年英語』の『教科書のP18』を開いて!みななはGWの予定はもう立てたかな?今日は、予定をあらわす英語の勉強だよ!」を、前記教科書アイコンの指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[04:35]と、前記ページ位置[中2英語;P18]のデータと、前記[イントロ]アイコン及びその動作制御(導入部の講義再生)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS9)。 When the CPU 11 detects an instruction to the voice icon SP of the text Bu1 of the text Tx being displayed (step S8 (Yes)), the CPU 11 detects the instruction to the textbook icon [junior high school second grade English] TX3, and the voice icon SP Lecture voice data H "Open" P18 of the textbook "of" English in the second grade of junior high school "! Have you made it yet? Today, I'm studying English to show my schedule! ", With the instruction data of the textbook icon and the lecture time data [04:35] by the clock counter T at the time of the instruction. The data of the page position [Middle 2 English; P18] is associated with the data of the [Intro] icon and its operation control (lecture reproduction of the introductory part), and added to the lecture data 12c1 in the lecture data area 12c. And register (step S9).

そしてCPU11は、図6Cに示すように、前記テキストTxの本文Bu1のデータ“Hi,Dick. What are your plans for the holidays? … Do you want anything from NYC? Koji”を表示部17に表示させ、また当該本文の模範音声データHmを音声出力部18bから出力させ、前記音声アイコンSPに対する指示を検知したタイミング以降に前記音声入力部18aにより入力された前記本文の模範音声データHmを、[音声再生]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P18;本文]のデータとに対応付けて取得していく(ステップS10)。 Then, as shown in FIG. 6C, the CPU 11 causes the display unit 17 to display the data “Hi, Dick. What are your plans for the holidays?… Do you want anything from NYC? Koji” of the text Bu1 of the text Tx. Further, the model voice data Hm of the text is output from the voice output unit 18b, and the model voice data Hm of the text input by the voice input unit 18a after the timing when the instruction to the voice icon SP is detected is [voice reproduction]. ] Icon and the data of the page position [Junior 2 English; P18; text] of the textbook [Junior high school 2nd grade English] are acquired (step S10).

なお、前記テキストTxの見開きページの表示(図6B参照)から当該見開きページ内の一部を拡大した表示(図6C参照)に切り替わった場合、CPU11は、その表示の内容を見開きページの全体の表示に戻すための全体表示アイコンATを表示部17の空白に表示させる。 When the display of the spread page of the text Tx (see FIG. 6B) is switched to the enlarged display (see FIG. 6C) of a part of the spread page, the CPU 11 performs the entire display of the spread page. The entire display icon AT for returning to the display is displayed in the blank of the display unit 17.

次に、講義者Leは、図6DのペンP1〜P4に示すように、前記表示部17に表示された本文Bu1のうち、受講者Stに注目させたい部分の文字列“I’m going to visit NYC next week. … see many things.”をタッチ操作してなぞりアンダーラインの表示を指示し、「新しい文型がでてきたよ!今日は、「○○する予定です」という文型を学習するよ!」と発声する。 Next, as shown in the pens P1 to P4 of FIG. 6D, the lecturer Le has the character string “I'm going to” of the part of the text Bu1 displayed on the display unit 17 that the student St wants to pay attention to. Touch NYC next week.… See many things. ”To instruct the display of the underline, and learn the sentence pattern“ A new sentence pattern has appeared! Today, I plan to do XX ”! ".

CPU11は、前記表示中の本文Bu1に対するタッチ操作に応じたアンダーラインの表示の指示を検知すると(ステップS11(Yes))、前記音声アイコンSPに対する指示を検知したときから前記アンダーラインの指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された本文Bu1の模範音声データHm「Hi,Dick. What are your plans for the holidays? … Do you want anything from NYC? Koji」を、前記音声アイコンの指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[08:21]と、前記ページ位置[中2英語;P18;本文]のデータと、前記[音声再生]アイコン及びその動作制御(本文再生)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS12)。 When the CPU 11 detects an underline display instruction corresponding to a touch operation on the text Bu1 being displayed (step S11 (Yes)), the CPU 11 detects the underline instruction from the time when the instruction to the voice icon SP is detected. The model voice data Hm "Hi, Dick. What are your plans for the holidays? ... Do you want anything from NYC? Koji" of the text Bu1 input and acquired by the voice input unit 18a before the timing of the above. The instruction data of the voice icon, the lecture time data [08:21] by the clock counter T at the time of the instruction, the data of the page position [middle 2 English; P18; text], and the [voice playback] icon. And, in association with the operation control (text reproduction) data, the data is additionally registered in the lecture data 12c1 in the lecture data area 12c (step S12).

この際、前記音声入力部18aから入力して取得した本文Bu1の模範音声データHmには、音声出力部18bから出力した模範音声データHmに合わせて受講者St…により発声される音声データも含まれる。このため、前記講義データエリア12cに登録した講義データ12c1を利用する段階で前記受講者St…の音声データも含まれる本文Bu1の模範音声データHmが自動再生されないように、当該模範音声データHmには出力禁止フラグ(マーク[])を付加して登録する。 At this time, the model voice data Hm of the text Bu1 input and acquired from the voice input unit 18a also includes voice data uttered by the student St ... in accordance with the model voice data Hm output from the voice output unit 18b. Is done. Therefore, the model audio data Hm of the text Bu1 including the audio data of the student St ... is not automatically reproduced at the stage of using the lecture data 12c1 registered in the lecture data area 12c. Is registered with the output prohibition flag (mark []) added.

そしてCPU11は、図6Dに示すように、前記表示部17に表示中の本文Bu1のデータのうち前記アンダーラインの指示を検知した文字列“I’m going to visit NYC next week. … see many things.”にアンダーラインを表示させ、当該アンダーラインの指示を検知したタイミング以降に前記音声入力部18aにより入力された前記講義者Leの音声データH「新しい文型がでてきたよ!今日は、「○○する予定です」という文型を学習するよ!」を、前記教科書[中学2年英語]のページ位置のアンダーライン位置[中2英語;P18;本文;アンダーライン]のデータに対応付けて取得していく(ステップS13)。 Then, as shown in FIG. 6D, the CPU 11 detects the underlined instruction in the data of the text Bu1 displayed on the display unit 17, and the character string “I'm going to visit NYC next week.… See many things. An underline is displayed on ".", And the voice data H of the lecturer Le input by the voice input unit 18a after the timing when the instruction of the underline is detected "A new sentence pattern has appeared! Today," ○ I'm going to learn the sentence pattern "I'm planning to do it"! Is obtained in association with the data of the underlined position [middle 2 English; P18; text; underline] of the page position of the textbook [junior high school second grade English] (step S13).

次に、講義者Leが、図6DとペンP5に示すように、前記表示部17に表示中の全体表示アイコンATにタッチ操作して前記テキストTxの見開きページP18−19の全体表示を指示すると、CPU11は、図7Aに示すように、当該テキストTxの見開きページP18−19の全体を表示部17に表示させる。 Next, when the lecturer Le touches the whole display icon AT displayed on the display unit 17 as shown in FIG. 6D and the pen P5 to instruct the whole display of the spread page P18-19 of the text Tx. , The CPU 11 causes the display unit 17 to display the entire spread page P18-19 of the text Tx as shown in FIG. 7A.

そして講義者Leは、ペンPにより、前記表示部17に表示されたテキストTxの基本文Bu2をタッチ操作して表示を指示し、「『基本文2−4』を見てね。「be going to +動詞の原型」で「○○する予定です」といういみだよ!たとえば、…」と発声する。 Then, the lecturer Le touches the basic sentence Bu2 of the text Tx displayed on the display unit 17 with the pen P to instruct the display, and "see" basic sentence 2-4 "." Be going. " "to + the prototype of the verb" says "I'm planning to do XX"! For example ... "

CPU11は、前記表示中のテキストTxの基本文Bu2に対する表示の指示を検知すると(ステップS14(Yes))、前記アンダーラインの指示を検知したときから前記基本文Bu2に対する指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「新しい文型がでてきたよ!今日は、「○○する予定です」という文型を学習するよ!」を、前記アンダーラインの指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[15:10]と、前記ページ位置[中2英語;P18;アンダーライン]のデータと、動作制御(アンダーライン)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS15)。 When the CPU 11 detects the display instruction for the basic sentence Bu2 of the text Tx being displayed (step S14 (Yes)), the CPU 11 from the time when the underline instruction is detected to the timing before the timing when the instruction for the basic sentence Bu2 is detected. The lecturer's voice data H, which was input to and acquired by the voice input unit 18a, "A new sentence pattern has appeared! Today, I will learn the sentence pattern" I'm planning to do XX "! The operation of the underlined instruction data, the lecture time data [15:10] by the clock counter T at the time of the instruction, and the data of the page position [middle 2 English; P18; underline]. It is additionally registered in the lecture data 12c1 in the lecture data area 12c in association with the control (underline) data (step S15).

そしてCPU11は、図7Bに示すように、前記テキストTxの基本文Bu2のデータ“I’m going to visit NYC next week. … Yes, I am.[No I am not.]”を表示部17に表示させ、前記基本文Bu2に対する指示を検知したタイミング以降に前記音声入力部18aにより入力された前記講義者Leの音声データH「『基本文2−4』を見てね。「be going to +動詞の原型」で「○○する予定です」といういみだよ!たとえば、…」を、[基本文説明]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P19;基本文2−4]のデータとに対応付けて取得していく(ステップS16)。 Then, as shown in FIG. 7B, the CPU 11 displays the data “I'm going to visit NYC next week.… Yes, I am. [No I am not.]” Of the basic sentence Bu2 of the text Tx on the display unit 17. Look at the voice data H "" Basic sentence 2-4 "" of the lecturer Le input by the voice input unit 18a after the timing when the instruction to the basic sentence Bu2 is detected. "Prototype of verb" is "I'm planning to do XX"! For example, "..." is acquired in association with the [Basic sentence explanation] icon and the data of the page position [Middle 2 English; P19; Basic sentence 2-4] of the textbook [Junior high school 2nd grade English] (step). S16).

次に、講義者Leは、図7Cに示すように、ペンPにより、前記表示部17に表示されたテキストTxの基本練習BLをタッチ操作して指示し、「『基本練習2−4』を見てね。リサさん、『答えて』ください。」と発声する。 Next, as shown in FIG. 7C, the lecturer Le touch-operates the basic practice BL of the text Tx displayed on the display unit 17 with the pen P to instruct, and "" Basic practice 2-4 "is performed. Look. Lisa-san, please "answer". "

CPU11は、前記表示中のテキストTxの基本練習BLに対する表示の指示を検知すると(ステップS17(Yes))、前記基本文Bu2に対する表示の指示を検知したときから前記基本練習BLに対する表示の指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『基本文2−4』を見てね。「be going to +動詞の原型」で「○○する予定です」といういみだよ!たとえば、…」を、前記基本文2−4に対する指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[18:35]と、前記ページ位置[中2英語;P19;基本文2−4]のデータと、[基本文説明]アイコン及びその動作制御(基本文の講義再生)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS18)。 When the CPU 11 detects a display instruction for the basic practice BL of the text Tx being displayed (step S17 (Yes)), the CPU 11 issues a display instruction for the basic practice BL from the time when it detects the display instruction for the basic sentence Bu2. Lecture voice data H "Look at" Basic sentence 2-4 ", which was input to and acquired by the voice input unit 18a before the detected timing." Be going to + Prototype of verb "" ○○ I'm planning to do it! " For example, "..." is the instruction data for the basic sentence 2-4, the lecture time data [18:35] by the clock counter T at the time of the instruction, and the page position [middle 2 English; P19; basic sentence. 2-4] is associated with the [Basic sentence explanation] icon and the data of its operation control (lecture reproduction of the basic sentence), and is added to and registered in the lecture data 12c1 in the lecture data area 12c ( Step S18).

そしてCPU11は、図7Dに示すように、前記基本練習BLのデータ“例;I am going to visit NYC next week. [・I][・play tennis][・next Saturday]”を表示部17に表示させ、前記基本練習BLに対する指示を検知したタイミング以降に前記音声入力部18aにより入力された前記講義者Leの音声データH「『基本練習2−4』を見てね。リサさん、『答えて』ください。」を、[基本練習説明]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS19)。 Then, as shown in FIG. 7D, the CPU 11 displays the data of the basic practice BL “example; I am going to visit NYC next week. [・ I] [・ play tennis] [・ next Saturday]” on the display unit 17. Then, after the timing when the instruction to the basic practice BL is detected, the voice data H of the lecturer Le input by the voice input unit 18a "Look at" Basic practice 2-4 ". Lisa," Answer. "Please." Is acquired in association with the [Basic practice explanation] icon and the data of the page position [Middle 2 English; P19; Basic practice 2-4] of the textbook [Junior high school 2nd grade English] (step). S19).

ここでCPU11は、前記音声入力部18aに入力されて取得される講義者音声データH「『基本練習2−4』を見てね。リサさん、『答えて』ください。」を音声認識することで、当該講義者音声データHに、例えば、講義者Leが受講者Stに呼びかけたり、受講者Stが答えたりする等の応対音声(ここでは「リサさん」)が含まれると判断した場合は(ステップS20(Yes))、当該講義者音声データHの応対音声が含まれる部分「リサさん、『答えて』ください。」に出力禁止フラグ(マーク[])Xpを付加する(ステップS21)。 Here, the CPU 11 voice-recognizes the lecturer voice data H "Look at" Basic practice 2-4 ". Lisa-san, please answer", which is input to and acquired by the voice input unit 18a. Then, when it is determined that the lecturer voice data H includes a response voice (here, "Lisa-san") such that the lecturer Le calls the student St or the student St answers. (Step S20 (Yes)), the output prohibition flag (mark []) Xp is added to the part "Mr. Lisa, please answer", which includes the response voice of the lecturer voice data H (step S21).

これにより、前記講義データエリア12cに登録した講義データ12c1を利用する段階で、受講者Stの個人を特定可能な講義者音声データHが自動再生されないように設定する。 As a result, at the stage of using the lecture data 12c1 registered in the lecture data area 12c, the lecturer voice data H that can identify the individual of the student St is set not to be automatically reproduced.

そして講義者Leは、ペンPにより、前記表示部17に表示された基本練習BLの出題アイコンQをタッチ操作して指示する。 Then, the lecturer Le touches and instructs the question icon Q of the basic practice BL displayed on the display unit 17 with the pen P.

受講者St(ここでは「リサ」)は、前記講義者Leの発声「リサさん、『答えて』ください。」と前記出題アイコンQの指示に応じて、当該受講者St自身の考えによる回答文“I am playing tennis next Saturday.”を発声する。 The student St (here, "Lisa") responds to the instruction of the lecturer Le's utterance "Lisa, please answer" and the question icon Q, and the answer sentence based on the student St's own thoughts. Say “I am playing tennis next Saturday.”.

また講義者Leは、図8Aに示すように、前記受講者Stの発声した回答文“I am playing tennis next Saturday.”に応じて、「ええっと、ちょっとおかしいね。Next Saturday(次の土曜日は、未来だよ)。「I am playing」では、「しています」の意味の現在進行形だね!」と発声する。 In addition, as shown in Fig. 8A, the lecturer Le responded to the answer "I am playing tennis next Saturday." Is the future). In "I am playing", it's an ongoing form that means "doing"! ".

CPU11は、前記出題アイコンQに対するタッチ操作に応じた出題の指示を検知すると(ステップS22(Yes))、前記基本練習BLに対する表示の指示を検知したときから前記出題アイコンQに対する指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『基本練習2−4』を見てね。[リサさん、『答えて』ください。]」を、前記基本練習2−4に対する指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[25:32]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[基本練習説明]アイコン及びその動作制御(基本練習の講義再生)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS23)。 When the CPU 11 detects a question instruction corresponding to a touch operation on the question icon Q (step S22 (Yes)), the timing at which the instruction to the question icon Q is detected from the time when the display instruction to the basic practice BL is detected. The lecturer voice data H "Look at" Basic practice 2-4 ". [Lisa, please answer"] ", which was previously input to the voice input unit 18a and acquired, is the basic practice. Instruction data for 2-4, lecture time data [25:32] by the clock counter T at the time of the instruction, data of the page position [middle 2 English; P19; basic practice 2-4], and [ Explanation of basic practice] In association with the icon and the data of its operation control (lecture reproduction of basic practice), the icon is added to the lecture data 12c1 in the lecture data area 12c and registered (step S23).

そしてCPU11は、前記出題アイコンQに対する指示を検知したタイミング以降に前記音声入力部18aにより入力された前記受講者St(リサ)の回答文の音声データHs“I am playing tennis next Saturday.”と、前記講義者Leの音声データH「ええっと、ちょっとおかしいね。Next Saturday(次の土曜日は、未来だよ)。「I am playing」では、「しています」の意味の現在進行形だね!」とを、[出題]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS24)。 Then, the CPU 11 describes the voice data Hs “I am playing tennis next Saturday.” Of the answer sentence of the student St (Lisa) input by the voice input unit 18a after the timing when the instruction to the question icon Q is detected. Voice data H of the lecturer Le "Well, it's a little strange. Next Saturday (next Saturday is the future)." In "I am playing", it's an ongoing form that means "doing". !! Is obtained in association with the [question] icon and the data of the page position [middle 2 English; P19; basic practice 2-4] of the textbook [junior high school second grade English] (step S24).

ここでCPU11は、前記音声入力部18aに入力されて取得される音声データを音声認識することで、前記受講者St(リサ)の回答文の音声データHs“I am playing tennis next Saturday.”を検知すると(ステップS25(Yes))、当該受講者Stの音声データHsに出力禁止フラグ(マーク[])Xpを付加する(ステップS26)。 Here, the CPU 11 voice-recognizes the voice data input to and acquired by the voice input unit 18a, thereby inputting the voice data Hs “I am playing tennis next Saturday.” Of the answer sentence of the student St (Lisa). When it is detected (step S25 (Yes)), the output prohibition flag (mark []) Xp is added to the voice data Hs of the student St (step S26).

またCPU11は、前記音声認識した受講者St(リサ)の回答文“I am playing tennis next Saturday.”と、前記電子教科書(テキスト)Txの該当するテキスト位置[中2英語;P19;基本練習2−4]に対応して集録されている正解文“I am going to play tennis next Saturday.”とを比較して、前記回答文の正誤を判定する(ステップS27)。 Further, the CPU 11 has the answer sentence "I am playing tennis next Saturday." Of the student St (Lisa) who recognized the voice and the corresponding text position of the electronic textbook (text) Tx [Middle 2 English; P19; Basic practice 2]. -4] is compared with the correct answer sentence “I am going to play tennis next Saturday.” Recorded in response to the above-mentioned answer sentence, and the correctness of the answer sentence is determined (step S27).

ここで、前記受講者Stの回答文について、前記基本練習の正解文と異なることで誤り判定される場合の当該正解文との異なり方の類型を、予め[誤り1][誤り2]…と設定しておく。 Here, the type of difference between the answer sentence of the student St and the correct answer sentence when the error is determined by being different from the correct answer sentence of the basic practice is described in advance as [Error 1], [Error 2], and so on. Set it.

CPU11は、前記受講者St(リサ)の回答文“I am playing tennis next Saturday.”について、前記[誤り1]と判定すると(ステップS30(Yes))、前記表示部17に表示中の基本練習BLの画面に、当該[誤り1]と判定した回答文THs“I am playing tennis next Saturday.”を誤りマーク[×]Erを付けて表示する。 When the CPU 11 determines that the answer sentence "I am playing tennis next Saturday." Of the student St (Lisa) is [Error 1] (step S30 (Yes)), the basic practice displayed on the display unit 17 is performed. On the BL screen, the answer sentence THs "I am playing tennis next Saturday." Determined as [Error 1] is displayed with an error mark [×] Er.

そしてCPU11は、前記出題アイコンQに対する出題の指示を検知したときから現在までに前記音声入力部18aに入力されて取得された前記受講者St(リサ)の回答文THsの音声データHs“I am playing tennis next Saturday.”(出力禁止マーク[]付き)と、前記講義者Leの音声データH「ええっと、ちょっとおかしいね。Next Saturday(次の土曜日は、未来だよ)。「I am playing」では、「しています」の意味の現在進行形だね!」とを、前記[出題]アイコンQに対する指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[27:10]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[出題]アイコンに前記[誤り1]の回答文[×]“I am playing tennis next Saturday.”を対応付けて設定した隠しデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS31a)。 Then, the CPU 11 has voice data Hs "I am" of the answer sentence THs of the student St (Lisa) input and acquired by the voice input unit 18a from the time when the instruction of the question to the question icon Q is detected to the present. "playing tennis next Saturday." (With output prohibition mark []) and the voice data H of the lecturer Le "Well, it's a little strange. Next Saturday (next Saturday is the future)." "I am playing ", Isn't it the ongoing form of the meaning of" doing "! The instruction data for the [question] icon Q, the lecture time data [27:10] by the clock counter T at the time of the instruction, and the page position [middle 2 English; P19; basic practice 2-. The lecture data area 12c is associated with the data of [4] and the hidden data set by associating the answer sentence [×] “I am playing tennis next Saturday.” Of the above [Error 1] with the [Question] icon. It is added to the lecture data 12c1 in the above and registered (step S31a).

ここで、講義者Leは、前記表示部17に表示された回答文THs“I am playing tennis next Saturday.”に含まれる[誤り1]の要点を説明するために、図8AのペンP1,P2に示すように、“playing”をダブルタッチRして指示し、「『現在進行形を復習』して比較してみよう。」「動詞のing形は、動作が今進行しているとき使うね。」と発声する。 Here, the lecturer Le, in order to explain the main points of [Error 1] included in the answer sentence THs “I am playing tennis next Saturday.” Displayed on the display unit 17, the pens P1 and P2 in FIG. 8A. As shown in, "playing" is double-touched and instructed, "Let's review the current progressive tense and compare." "The ing form of the verb is used when the action is in progress. . "

CPU11は、前記回答文THs“I am playing tennis next Saturday.”に含まれる“playing”に対するダブルタッチRの指示を検知すると、前記電子教科書データ(12b)の中から現在講義中の教科書のページ位置[中2英語;P19;基本練習2−4]よりも前の単元の英語の教科書に含まれる基本文(ここでは[中1英語;P95;基本文1−25])を検索し、図8Bに示すように、復習用の基本文Bupとして表示部17に表示させる。そして、前記“playing”に対するダブルタッチRを検知したタイミング以降に前記音声入力部18aに入力される前記講義者Leの音声データH「『現在進行形を復習』して比較してみよう。」「動詞のing形は、動作が今進行しているとき使うね。」を、前記[誤り1]の説明データとして、前記教科書のページ位置[中1英語;P95;基本文1−25]のデータに対応付けて取得していく(ステップS31b)。 When the CPU 11 detects a double touch R instruction for "playing" included in the answer sentence THs "I am playing tennis next Saturday.", The page position of the textbook currently being lectured from the electronic textbook data (12b). Search for the basic sentences (here, [Middle 1 English; P95; Basic sentences 1-25]) included in the English textbook of the unit before [Middle 2 English; P19; Basic practice 2-4], and Fig. 8B. As shown in the above, the display unit 17 is displayed as a basic sentence Bup for review. Then, the voice data H of the lecturer Le input to the voice input unit 18a after the timing when the double touch R for the "playing" is detected "Let's compare by" reviewing the present progressive tense "." The ing form of the verb is used when the movement is in progress. ”Is used as the explanatory data for the above [error 1], and the data for the page position of the textbook [middle 1 English; P95; basic sentence 1-25]. (Step S31b).

このように、前記表示部17に表示中の文字列(ここでは受講者Stの[誤り1]の回答文THs)の中から復習したい一部の文字列に対するダブルタッチRの指示を検知すると、当該指示された文字列に対応した復習のための基本文Bupが、講義済み(受講済み)の電子教科書データ(12b)の中から検索されて表示されるので、生成中の講義データ12c1に容易に復習のための講義データも含めることができる。 In this way, when the double touch R instruction for a part of the character strings to be reviewed is detected from the character strings displayed on the display unit 17 (here, the answer sentence THs of [Error 1] of the student St), Since the basic sentence Bup for review corresponding to the instructed character string is searched and displayed from the electronic textbook data (12b) that has been lectured (taken), it is easy to generate the lecture data 12c1. Lecture data for review can also be included in.

なお、前記ステップS25〜S27の処理に従い音声認識された受講者Stの回答文THsについて、前記[誤り2]と判定された場合も(ステップS32(Yes))、前記[誤り1]と判定された場合と同様に、表示中の文字列に含まれる要点としての一部の文字列をダブルタッチR等により指示することで、当該[誤り2]の類型に応じた復習のための過去の講義データを生成中の講義データ12c1に容易に含めることができる(ステップS32,S33a,S33b)。 It should be noted that even when the answer sentence THs of the student St, which is voice-recognized according to the processes of steps S25 to S27, is determined to be [error 2] (step S32 (Yes)), it is determined to be [error 1]. In the same way as in the case of, by instructing a part of the character string as the main point included in the displayed character string by double touch R etc., the past lecture for review according to the type of [Error 2]. The data can be easily included in the lecture data 12c1 being generated (steps S32, S33a, S33b).

また、前記[誤り1][誤り2]に含まれない他の類型の誤りと判定された場合であっても(ステップS34(Yes))、前記同様に、当該他の類型に応じた復習のための過去の講義データを生成中の講義データ12c1に容易に含めることができる(ステップS34,S35a,S35b)。 Further, even when it is determined that the error is of another type not included in the above [Error 1] and [Error 2] (step S34 (Yes)), the review according to the other type is similarly performed. The past lecture data for this purpose can be easily included in the lecture data 12c1 being generated (steps S34, S35a, S35b).

前記図8Bで示した、復習用の基本文Bupを表示させた表示部17の画面において、講義者LeはペンPにより[戻る]アイコンReをタッチ操作して指示し、次に、図8Cに示すように、「する予定の場合は、「be going to」の後、原型動詞だね。リサさん、もう一度『チャレンジ』ね。」と発声する。 On the screen of the display unit 17 displaying the basic sentence verb for review shown in FIG. 8B, the lecturer Le touches the [Back] icon Re with the pen P to instruct, and then in FIG. 8C. As you can see, "If you plan to do it, it's the prototype verb after" be going to ". Lisa-san, "Challenge" again. ".

CPU11は、前記[戻る]アイコンReに対するタッチ操作の指示(ここでは、基本練習BLに対する表示の指示と同一)を検知すると(ステップS17(yes))、前記回答文THsの文字列“playing”に対するダブルタッチRの指示を検知したときから前記[戻る]アイコンReに対する指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『現在進行形を復習』して比較してみよう。」「動詞のing形は、動作が今進行しているとき使うね。」を、前記“playing”に対するダブルタッチRの指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[30:05]と、前記教科書のページ位置[中1英語;P95;基本文1−25]のデータと、前記[誤り1]の回答文[×]“I am playing tennis next Saturday.”に[復習]アイコン(リンク先[中1英語;P95;基本文1−25])を設定したデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS18)。 When the CPU 11 detects a touch operation instruction for the [return] icon Re (here, the same as a display instruction for the basic practice BL) (step S17 (yes)), the CPU 11 responds to the character string "playing" in the answer sentence THs. Lecture voice data H "" Review the present progressive tense "" that was input to and acquired by the voice input unit 18a from the time when the instruction of the double touch R was detected to the timing when the instruction to the [return] icon Re was detected. Let's compare. "" The ing form of the verb is used when the movement is in progress. ", The instruction data of the double touch R for the" playing "and the clock at the time of the instruction. Lecture time data [30:05] by counter T, data of page position [middle 1 English; P95; basic sentence 1-25] of the textbook, and answer sentence [x] "I am playing" of the above [error 1]. Add to the lecture data 12c1 in the lecture data area 12c in association with the data for which the [Review] icon (link destination [Chinese 1 English; P95; Basic sentence 1-25]) is set in "tennis next Saturday." And register (step S18).

そしてCPU11は、前記基本練習BLのデータ“例;I am going to visit NYC next week. [・I][・play tennis][・next Saturday]”を表示部17に再び表示させ、前記[戻る]アイコンReに対する指示を検知したタイミング以降に前記音声入力部18aにより入力される前記講義者Leの音声データH「する予定の場合は、「be going to」の後、原型動詞だね。リサさん、もう一度『チャレンジ』ね。」を、[基本練習説明]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS19)。 Then, the CPU 11 causes the display unit 17 to display the data "example; I am going to visit NYC next week. [・ I] [・ play tennis] [・ next Saturday]" of the basic practice BL again, and [returns]. The voice data H of the lecturer Le input by the voice input unit 18a after the timing when the instruction to the icon Re is detected "If you plan to do it, it is the prototype verb after" be going to ". Lisa-san, "Challenge" again. Is obtained in association with the [Basic practice explanation] icon and the data of the page position [Junior high school 2 English; P19; Basic practice 2-4] of the textbook [Junior high school 2nd grade English] (step S19).

ここでCPU11は、前記音声入力部18aに入力されて取得される講義者音声データH「する予定の場合は、「be going to」の後、原型動詞だね。リサさん、もう一度『チャレンジ』ね。」を音声認識することで、前回の基本練習を行ったときと同様に、当該講義者音声データHに、応対音声(ここでは「リサさん」)が含まれると判断し(ステップS20(Yes))、当該講義者音声データHの応対音声が含まれる部分「リサさん、もう一度『チャレンジ』ね。」に出力禁止フラグ(マーク[])Xpを付加する(ステップS21)。 Here, the CPU 11 is the prototype verb after the lecturer voice data H "if you plan to do it," be going to ", which is input to and acquired by the voice input unit 18a. Lisa-san, "Challenge" again. By recognizing the voice, it is determined that the lecturer's voice data H includes the response voice (here, "Lisa-san") as in the case of the previous basic practice (step S20 (Yes)). ), Add the output prohibition flag (mark []) Xp to the part "Lisa-san," Challenge "again" that includes the response voice of the lecturer voice data H (step S21).

そして講義者Leは、ペンPにより、前記表示部17に表示された基本練習BLの出題アイコンQをタッチ操作して指示する。 Then, the lecturer Le touches and instructs the question icon Q of the basic practice BL displayed on the display unit 17 with the pen P.

受講者St(ここでは「リサ」)は、前記講義者Leの発声「リサさん、もう一度『チャレンジ』ね。」と前記出題アイコンQの指示に応じて、図8Dに示すように、当該受講者St自身の再考した回答文“I am going to play tennis next Saturday.”を発声する。 The student St (here, "Lisa") responded to the instruction of the lecturer Le's utterance "Lisa-san," Challenge "again" and the question icon Q, as shown in FIG. 8D. St utters the reconsidered answer "I am going to play tennis next Saturday."

講義者Leは、前記受講者Stが再考して発声した回答文“I am going to play tennis next Saturday.”に応じて、「よくできました。今日はこれで『おしまい』。」と発声する。 Lecture Le utters "I am going to play tennis next Saturday." In response to the answer "I am going to play tennis next Saturday." ..

CPU11は、前記出題アイコンQに対するタッチ操作に応じた出題の指示を検知すると(ステップS22(Yes))、前記[戻る]アイコンReに対する表示の指示を検知したときから前記出題アイコンQに対する指示を検知したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「する予定の場合は、「be going to」の後、原型動詞だね。リサさん、もう一度『チャレンジ』ね。」を、前記[戻る]に対する指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[32:15]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[基本練習説明]アイコン及びその動作制御(基本練習の講義再々生)のデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS23)。 When the CPU 11 detects a question instruction corresponding to a touch operation on the question icon Q (step S22 (Yes)), the CPU 11 detects an instruction on the question icon Q from the time when it detects a display instruction on the [return] icon Re. Lecture voice data H "If you plan to do it, it is the prototype verb after" be going to "" that was input to and acquired by the voice input unit 18a before the timing. Lisa-san, "Challenge" again. , The instruction data for the [return], the lecture time data [32:15] by the clock counter T at the time of the instruction, and the page position [middle 2 English; P19; basic practice 2-4]. In association with the data and the data of the [Basic practice explanation] icon and its operation control (lecture replay of the basic practice), the data is added to and registered in the lecture data 12c1 in the lecture data area 12c (step S23).

そしてCPU11は、前記出題アイコンQに対する指示を検知したタイミング以降に前記音声入力部18aにより入力された前記受講者St(リサ)の回答文の音声データHs“I am going to play tennis next Saturday.”と、前記講義者Leの音声データH「よくできました。今日はこれで『おしまい』。」とを、[出題]アイコンと前記教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS24)。 Then, the CPU 11 receives the voice data Hs “I am going to play tennis next Saturday.” Of the answer sentence of the student St (Lisa) input by the voice input unit 18a after the timing when the instruction to the question icon Q is detected. And the voice data H of the lecturer Le, "Well done. Today is the end.", The [Question] icon and the page position of the textbook [Junior high school 2nd grade English] [Middle 2 English; P19. ; Acquired in association with the data of [Basic Exercise 2-4] (step S24).

ここでCPU11は、前記音声入力部18aに入力されて取得される音声データを音声認識することで、前回の基本練習を行ったときと同様に、前記受講者St(リサ)の回答文の音声データHs“I am going to play tennis next Saturday.”を検知すると(ステップS25(Yes))、当該受講者Stの音声データHsに出力禁止フラグ(マーク[])Xpを付加する(ステップS26)。 Here, the CPU 11 voice-recognizes the voice data input to and acquired by the voice input unit 18a, so that the voice of the answer sentence of the student St (Lisa) is the same as when the previous basic practice was performed. When the data Hs "I am going to play tennis next Saturday." Is detected (step S25 (Yes)), the output prohibition flag (mark []) Xp is added to the voice data Hs of the student St (step S26).

またCPU11は、前記音声認識した受講者St(リサ)の回答文“I am going to play tennis next Saturday.”の正誤を判定する(ステップS27)。 Further, the CPU 11 determines the correctness of the answer sentence “I am going to play tennis next Saturday.” Of the student St (Lisa) who recognized the voice (step S27).

CPU11は、前記受講者St(リサ)の今度の回答文“I am going to play tennis next Saturday.”について、[正解]と判定すると(ステップS28(Yes))、前記表示部17に表示中の基本練習BLの画面に、当該[正解]と判定した回答文THs“I am going to play tennis next Saturday.”を正解マーク[○]Trを付けて表示する。 When the CPU 11 determines that the answer sentence "I am going to play tennis next Saturday." Of the student St (Lisa) is [correct answer] (step S28 (Yes)), the CPU 11 is displaying it on the display unit 17. On the screen of the basic practice BL, the answer sentence THs "I am going to play tennis next Saturday." Determined as the [correct answer] is displayed with the correct answer mark [○] Tr.

そしてCPU11は、前記出題アイコンQに対する出題の指示を検知したときから現在までに前記音声入力部18aに入力されて取得された前記受講者St(リサ)の回答文THsの音声データHs“I am going to play tennis next Saturday.”(出力禁止マーク[]付き)と、前記講義者Leの音声データH「よくできました。今日はこれで『おしまい』。」とを、前記[出題]アイコンQに対する指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[34:39]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[出題]アイコンに前記[正解]の回答文[○]“I am going to play tennis next Saturday.”を対応付けて設定した隠しデータとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS29a)。 Then, the CPU 11 has voice data Hs "I am" of the answer sentence THs of the student St (Lisa) input and acquired by the voice input unit 18a from the time when the instruction of the question to the question icon Q is detected to the present. Going to play tennis next Saturday. ”(With output prohibition mark []) and the voice data H of the lecturer Le“ Well done. Instruction data for, lecture time data [34:39] by the clock counter T at the time of the instruction, data of the page position [middle 2 English; P19; basic practice 2-4], and [question] icon. In addition to the hidden data set by associating the answer sentence [○] "I am going to play tennis next Saturday." Of the above [correct answer] to the lecture data 12c1 in the lecture data area 12c. Register (step S29a).

ここで、講義者Leが、前記表示部17に表示された[正解]の回答文[○]“I am going to play tennis next Saturday.”について、何らかの説明を発声した場合、CPU11は、当該講義者Leの音声データHを、正解の説明データとして、前記教科書のページ位置[中2英語;P19;基本練習2−4]のデータに対応付けて取得していく(ステップS29b)。 Here, when the lecturer Le utters some explanation about the answer sentence [○] "I am going to play tennis next Saturday." Of the [correct answer] displayed on the display unit 17, the CPU 11 causes the lecture. The voice data H of the person Le is acquired as explanatory data of the correct answer in association with the data of the page position [middle 2 English; P19; basic practice 2-4] of the textbook (step S29b).

この後、講義者Leは、図9Aに示すように、「『講義データを送る』よ。みんな復習してね。今日欠席の○○君にも送ったよ!」と発声し、前記テキストTxの見開きページP18−19の空白に表示された[講義]アイコンIc(ここでは講義データ12c1のヘッダに対応する[4/25中2英講義])を、ペンPによりタッチ操作して終了を指示し、さらに、矢印tに示すようにフリックする。 After this, as shown in Fig. 9A, the lecturer Le said, "'Send the lecture data'. Everyone should review it. I also sent it to Mr. XX who was absent today!" Touch the [Lecture] icon Ic (here, [4/25 middle 2 English lecture] corresponding to the header of the lecture data 12c1) displayed in the blank on the spread page P18-19 with the pen P to instruct the end. Then, flick as shown by the arrow t.

CPU11は、前記[講義]アイコンIcに対する終了の指示及びフリックを検知すると(ステップS38(Yes))、当該終了の指示及びフリックの検知のタイミング以前に音声入力部18aに入力されて取得された講義者音声データH(ここでは、前記正解の説明の音声データと前記講義終了の説明の音声データ「『講義データを送る』よ。みんな復習してね。今日欠席の○○君にも送ったよ!」)を、前記[講義]アイコンIcに対する指示データと、その指示の時点での前記時計カウンタTによる講義時間データ[40:00]と、[終了]アイコンとに対応付けて、前記講義データエリア12c内の講義データ12c1に追加して登録する(ステップS39)。なお、ここでも前記同様に、応対音声としての講義者音声データH「今日欠席の○○君にも送ったよ!」には、出力禁止フラグ(マーク[])Xpを付加して登録する。 When the CPU 11 detects an end instruction and a flick to the [lecture] icon Ic (step S38 (Yes)), the lecture is input to and acquired by the voice input unit 18a before the end instruction and the flick detection timing. Person voice data H (Here, the voice data of the explanation of the correct answer and the voice data of the explanation of the end of the lecture "'Send the lecture data'. Everyone should review. I also sent it to Mr. ○○ who was absent today! ") Is associated with the instruction data for the [lecture] icon Ic, the lecture time data [40:00] by the clock counter T at the time of the instruction, and the [end] icon, and the lecture data area. It is additionally registered in addition to the lecture data 12c1 in 12c (step S39). Also here, similarly to the above, the output prohibition flag (mark []) Xp is added and registered to the lecturer voice data H "I sent it to Mr. XX who is absent today!" As the response voice.

そしてCPU11は、前記受講者データエリア12dに記憶されている各受講者(生徒等)St…が使用する受講者端末(タブレット端末等)20…の通信アドレスに従い、前記講義データエリア12cに今回生成して登録した講義データ12c1を、前記無線通信部19あるいは通信部15を介して、欠席者を含む各受講者St…の受講者端末(タブレット端末等)20…に送信し、また、前記教育コンテンツサーバ30に送信する(ステップS40)。 Then, the CPU 11 is generated this time in the lecture data area 12c according to the communication address of the student terminal (tablet terminal or the like) 20 ... used by each student (student or the like) St ... stored in the student data area 12d. The lecture data 12c1 registered in the above process is transmitted to the student terminals (tablet terminals, etc.) 20 ... of each student St ... including absentees via the wireless communication unit 19 or the communication unit 15, and the education is also performed. It is transmitted to the content server 30 (step S40).

なお、CPU11は、前記講義者Leによるその他の指示を検知した場合も(ステップS36(Yes))、前記同様にその検知以前に取得した音声データを該当する教科書のページ位置や講義内容のデータに対応付けて登録する(ステップS37)。 Even when the CPU 11 detects another instruction by the lecturer Le (step S36 (Yes)), the CPU 11 similarly uses the voice data acquired before the detection as the page position of the corresponding textbook or the data of the lecture content. Register in association with each other (step S37).

このように、撮影専用の特別講義を行なう必要なく、電子教科書データ(12b)を利用して普段行っている講義を普段通り行うだけで、例えば、講義毎のテキスト位置のデータに講義者音声データHを対応付けた講義データ12cnを生成することできる。そして、生成した講義データ12cnを、当該講義の受講対象者の各受講者端末20…や教育コンテンツサーバ30に送ることで、該当する講義の復習、再受講、講義欠席者の受講など、講義データ利用者にとって適切に利用できる講義データを得ることが可能になる。 In this way, there is no need to give a special lecture dedicated to photography, just by giving the usual lecture using the electronic textbook data (12b), for example, the lecturer's voice data in the text position data for each lecture. Lecture data 12cn associated with H can be generated. Then, by sending the generated lecture data 12cn to each student terminal 20 of the lecture target person or the educational content server 30, lecture data such as review of the corresponding lecture, re-attendance, attendance of lecture absentees, etc. It becomes possible to obtain lecture data that can be appropriately used by users.

なお、前記実施形態では、前記講義の開始から終了までの間に講義者Leが電子黒板(講義者端末)10に対して直接行った、電源キーの操作や各タッチ操作の指示をCPU11が検知することで、当該講義の開始から終了までの間に講義者Leが講義した小単元(講義項目)毎の区切りを検知する構成としたが、前記音声入力部18aにより入力した講義者音声データHを音声認識することで、前記同様の区切りを検知してもよい。 In the embodiment, the CPU 11 detects the operation of the power key and the instruction of each touch operation directly performed by the lecturer Le on the electronic blackboard (lecture terminal) 10 from the start to the end of the lecture. By doing so, it is configured to detect the break for each small unit (lecture item) lectured by the lecturer Le from the start to the end of the lecture, but the lecturer voice data H input by the voice input unit 18a is used. May be detected by recognizing the above-mentioned delimiter by voice.

例えば、『電源オン』の講義者音声Hを認識することで、電子黒板(講義者端末)10の電源をオンし、講義の開始を検知する。また、『中2英語』『教科書のP18』の講義者音声Hを認識することで、講義対象の教科書とそのページ位置を検知する。また、『本文の音声再生』の講義者音声Hを認識することで、本文の音声アイコンSPに対する指示を検知する。また、『I’m going to …にアンダーライン』の講義者音声Hを認識することで、アンダーラインの対象文字列とアンダーラインの表示の指示を検知する。また、『答えて』や『チャレンジ』の講義者音声Hを認識することで、[出題]アイコンQに対する指示を検知する。 For example, by recognizing the lecturer voice H of "power on", the power of the electronic blackboard (lecture terminal) 10 is turned on, and the start of the lecture is detected. In addition, by recognizing the lecturer voice H of "Middle 2 English" and "P18 of the textbook", the textbook to be lectured and its page position are detected. Further, by recognizing the lecturer voice H of "speech reproduction of the text", the instruction to the voice icon SP of the text is detected. In addition, by recognizing the lecturer voice H of "I'm going to ... underline", the target character string of the underline and the instruction of displaying the underline are detected. In addition, by recognizing the lecturer voice H of "answer" and "challenge", the instruction to the [question] icon Q is detected.

また、前記実施形態では、前記講義者Leが講義した小単元(講義項目)毎の区切りを検知することで、当該検知毎に、前回検知のタイミング以降で今回検知のタイミング以前に音声入力された講義者音声データHを含む講義中の音声データを、各対応するテキスト位置と講義の内容に対応付けて講義データエリア12cに順次追加して登録し、該当する講義データ12cnを生成する構成とした。 Further, in the embodiment, by detecting the division for each small unit (lecture item) lectured by the lecturer Le, voice input is performed for each detection after the timing of the previous detection and before the timing of the current detection. The lecture data including the lecturer voice data H is sequentially added and registered in the lecture data area 12c in association with each corresponding text position and the content of the lecture, and the corresponding lecture data 12cn is generated. ..

これに対し、前記講義者Leが講義した小単元(講義項目)毎の区切りを検知する毎に、前記同様のタイミング間で音声入力された講義者音声データHを含む講義中の音声データを、各対応するテキスト位置と講義の内容に対応付けて教育コンテンツサーバ30に送信することで(例えば、ステップS6,S9,S12,…,S39参照)、該当する講義データ12cnを当該教育コンテンツサーバ30に直接登録して生成する構成としてもよい。 On the other hand, every time the break for each small unit (lecture item) lectured by the lecturer Le is detected, the voice data in the lecture including the lecturer voice data H voice-input between the same timings is used. By transmitting to the educational content server 30 in association with each corresponding text position and the content of the lecture (see, for example, steps S6, S9, S12, ..., S39), the corresponding lecture data 12cn is transmitted to the educational content server 30. It may be configured to be directly registered and generated.

図9A〜図9D、図10は、前記電子黒板(講義者端末)10の講義データ送信処理に従い生成された講義データ12cnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12cnの表示再生動作(その1〜4)(その5)を示す図である。 9A-9D and 10 show lectures according to user (student) operation on the student terminal 20 that has received the lecture data 12cn generated according to the lecture data transmission process of the electronic blackboard (lecture terminal) 10. It is a figure which shows the display reproduction operation (the 1st-4) (the 5) of the data 12cn.

受講者端末(タブレット端末等)20において、前記図9Aで示したように、電子黒板(講義者端末)10(又は教育コンテンツサーバ30)から送信された講義データ12c1が受信された場合、図9Bに示すように、当該受講者端末20のCPUは、その表示部に[講義]アイコンIcを表示する。そして、前記[講義]アイコンIcに対する受講者Stのタッチ操作Pの指示を検知すると、前記講義データ12c1のヘッダ[4月25日_2時間目_中学2年英語P18−19(2年3組)])に従い、電子教科書データ[中学2年英語P18−19]の見開きページのテキストTxを表示する。 When the lecture data 12c1 transmitted from the electronic blackboard (lecture terminal) 10 (or the educational content server 30) is received in the student terminal (tablet terminal or the like) 20 as shown in FIG. 9A, FIG. 9B As shown in the above, the CPU of the student terminal 20 displays the [lecture] icon Ic on the display unit thereof. Then, when the instruction of the touch operation P of the student St to the [lecture] icon Ic is detected, the header of the lecture data 12c1 [April 25_2nd hour_junior high school 2nd grade English P18-19 (2nd grade 3rd group) )]), The text Tx of the spread page of the electronic textbook data [Junior high school second grade English P18-19] is displayed.

そして、受講者端末20は、図9C,図9Dに示すように、前記講義データ12c1(図3参照)のテキスト位置と講義内容のデータに基づいて、当該講義データ12c1の各講義項目の部分だけ再生させるための各項目アイコン([開始]アイコンK1/[イントロ]アイコンK2/[音声再生]アイコンK3d/[基本文説明]アイコンK4d/[基本練習説明]アイコンK5d)、及び[全体再生]アイコンKA、[本文基本]アイコンKB、[基本練習]アイコンKCを表示する。 Then, as shown in FIGS. 9C and 9D, the student terminal 20 uses only the portion of each lecture item of the lecture data 12c1 based on the text position of the lecture data 12c1 (see FIG. 3) and the data of the lecture content. Each item icon for playback ([Start] icon K1 / [Intro] icon K2 / [Audio playback] icon K3d / [Basic text explanation] icon K4d / [Basic practice explanation] icon K5d), and [Overall playback] icon Display KA, [Basic text] icon KB, and [Basic practice] icon KC.

ここで、前記[音声再生]アイコンK3d/[基本文説明]アイコンK4d/[基本練習説明]アイコンK5dは、表示中のテキストTx内の各該当するテキスト位置(本文Bu1/基本文Bu2/基本練習BL)に対応付けて識別表示される。 Here, the [voice reproduction] icon K3d / [basic sentence explanation] icon K4d / [basic practice explanation] icon K5d is each corresponding text position (text Bu1 / basic sentence Bu2 / basic practice) in the displayed text Tx. It is identified and displayed in association with BL).

そして、受講者St(講義欠席者含む)は、前記表示中の各アイコンK1,K2,K3d,K4d,K5d,KA,KB,KCのうち、任意のアイコンをペンPによりタッチ操作して指示することで、受講者端末20は、当該指示されたアイコンに対応する講義データ12c1の講義項目のテキストの表示と音声データの再生とを連動して行う。 Then, the student St (including those who are absent from the lecture) gives an instruction by touching any of the displayed icons K1, K2, K3d, K4d, K5d, KA, KB, and KC with the pen P. As a result, the student terminal 20 interlocks the display of the text of the lecture item of the lecture data 12c1 corresponding to the instructed icon and the reproduction of the audio data.

例えば、図9Dに示すように、受講者St(講義欠席者含む)が[基本練習]アイコンKCを指示すると、前記講義データ12c1に登録されている[基本練習2−4]に対応するテキスト位置のデータ、講義内容(動作制御の内容含む)のデータ、音声データ、それぞれの表示と再生とを、図10(A)〜図10(D)に示すように、順次連動して行う。 For example, as shown in FIG. 9D, when the student St (including those who are absent from the lecture) instructs the [basic practice] icon KC, the text position corresponding to the [basic practice 2-4] registered in the lecture data 12c1. Data, lecture content (including motion control content) data, audio data, and display and reproduction of each are sequentially performed in conjunction with each other as shown in FIGS. 10 (A) to 10 (D).

具体的には、前記図7D〜図8Dで示したように、前記電子黒板(講義者端末)10での講義データ12c1の生成、登録に際し、講義者Leの講義により行った基本練習2−4に対応するテキスト表示と音声再生を同様に行う。 Specifically, as shown in FIGS. 7D to 8D, the basic practice 2-4 performed by the lecture by the lecturer Le when the lecture data 12c1 was generated and registered on the electronic blackboard (lecture terminal) 10. The text display and voice reproduction corresponding to are performed in the same manner.

但し、前記出力禁止フラグ(マーク[])Xpが付加されて登録されている音声データ(ここでは講義者音声データH「リサさん、『答えて』ください。」「リサさん、もう一度『チャレンジ』ね。」や受講者音声データHs“I am playing tennis next Saturday.”“I am going to play tennis next Saturday.”)は、予め講義対象の電子教科書データ(ここでは[中学2年英語])の各該当する項目に対応して収録されている講義者Leとしての合成音声データHcや前記登録されている受講者音声データHsの合成音声データHcに変更して再生する。 However, the voice data registered with the output prohibition flag (mark []) Xp added (here, lecturer voice data H "Lisa-san, please answer". "" Lisa-san, "challenge" again. . ”And the student voice data Hs“ I am playing tennis next Saturday. ”“ I am going to play tennis next Saturday. ”) Are each of the electronic textbook data (here, [second grade English]) to be lectured in advance. It is changed to the synthetic voice data Hc as the lecturer Le recorded corresponding to the corresponding item and the synthetic voice data Hc of the registered student voice data Hs and reproduced.

例えば、図10(A)に示すように、講義データ12c1のページ位置[中2英語;P19;基本練習2−4]に対応付けて登録されている講義者音声データH「『基本練習2−4』を見てね。[リサさん、『答えて』ください。]」のうち、前記出力禁止フラグ(マーク[])Xpが付加された講義者音声データH「リサさん、『答えて』ください。」は、講義者Leとしての合成音声データHc「『基本練習2−4』の答えは?」に変更して再生し、また、前記[誤り1]の回答文である受講者音声データHs“I am playing tennis next Saturday.”は、疑似受講者Stdの合成音声データHcに変更して再生する。 For example, as shown in FIG. 10 (A), the lecturer voice data H ““ Basic practice 2- See "4". [Lisa, please "answer".] ", The lecturer voice data H" Lisa, please "answer" to which the output prohibition flag (mark []) Xp is added. "." Is changed to the synthetic voice data Hc "What is the answer to" Basic practice 2-4 "?" As the lecturer Le, and is played back. "I am playing tennis next Saturday." Is changed to the synthetic voice data Hc of the pseudo-student Std and played.

また同様に、図10(D)に示すように、講義データ12c1のページ位置[中2英語;P19;基本練習2−4]に対応付けて登録されている講義者音声データH「する予定の場合は、「be going to」の後、原型動詞だね。リサさん、もう一度『チャレンジ』ね。」のうち、前記出力禁止フラグ(マーク[])Xpが付加された講義者音声データH「リサさん、もう一度『チャレンジ』ね。」は、講義者Leとしての合成音声データHc「『基本練習2−4』の答えは?」に変更して再生し、また、前記[正解]の回答文である受講者音声データHs“I am going to play tennis next Saturday.”は、疑似受講者Stdの合成音声データHcに変更して再生する。 Similarly, as shown in FIG. 10 (D), the lecturer voice data H "planned to be performed" registered in association with the page position [middle 2 English; P19; basic practice 2-4] of the lecture data 12c1. In that case, it's the prototype verb after "be going to". Lisa-san, "Challenge" again. The lecturer voice data H "Lisa-san, once again" challenge "" to which the output prohibition flag (mark []) Xp is added is the synthetic voice data Hc "" Basic practice 2 "as the lecturer Le. -4 ”is changed to“ What is the answer? ”And played, and the student voice data Hs“ I am going to play tennis next Saturday. ”, Which is the answer sentence of the above [correct answer], is a synthesis of the pseudo student Std. Change to audio data Hc and play.

これにより、前記講義データ12cnを複数の受講者St…(講義欠席者含む)が利用する段階で、その講義に出席して講義者Leと応対した受講者Stの個人が特定されるのを、未然に防止することができる。 As a result, at the stage where the lecture data 12cn is used by a plurality of lecturer St ... (including those who are absent from the lecture), the individual of the lecturer St who attended the lecture and responded to the lecturer Le is identified. It can be prevented in advance.

したがって、前記構成の電子黒板(講義者端末)10によれば、講義対象の電子教科書のテキストTxをタッチパネル付き表示部17に表示させ、当該テキストTxの各講義項目等を、講義者LeがペンPによるタッチ操作や音声により指示しながら説明(発声)して各受講者St…に対する講義を行う。するとCPU11は、前記表示中のテキストTxに対するタッチ操作での指示あるいは音声を認識することによる指示を検知する毎に、前回の指示を検知したタイミング以降で今回の指示を検知したタイミング以前に音声入力部18aで入力して取得した講義者音声データHを含む講義中の音声データを、前記前回の指示に応じたテキスト位置のデータに対応付けて、順次、講義データ12cnとして講義データエリア12c又は教育コンテンツサーバ30に送信して登録する。 Therefore, according to the electronic blackboard (lecture terminal) 10 having the above configuration, the text Tx of the electronic textbook to be lectured is displayed on the display unit 17 with a touch panel, and each lecture item of the text Tx is displayed by the lecturer Le. Lectures will be given to each student St ... by explaining (speaking) while instructing by touch operation by P or voice. Then, each time the CPU 11 detects an instruction by touch operation for the text Tx being displayed or an instruction by recognizing a voice, the CPU 11 inputs a voice after the timing when the previous instruction is detected and before the timing when the current instruction is detected. The voice data in the lecture including the lecturer voice data H input and acquired in the part 18a is associated with the data at the text position according to the previous instruction, and sequentially as the lecture data 12cn in the lecture data area 12c or the education. It is sent to the content server 30 and registered.

そして、前記登録した講義データ12cnを前記各受講者St…(講義欠席者含む)の受講者端末20…に送信し、当該各受講者St…は、自身の受講者端末20で受信した前記講義データ12cnを開くことで、当該講義データ12cnに基づき、前記講義者Leが行ったテキストTxの各講義項目等に対する指示毎のテキスト位置の表示と、そのときの講義者音声データHを含む講義中の音声データの再生とを、所望の講義項目等を選択しながら連動して行わせることができる。 Then, the registered lecture data 12cn is transmitted to the student terminal 20 ... Of each student St ... (including those who are absent from the lecture), and each student St ... receives the lecture on the student terminal 20. By opening the data 12cn, the text position for each instruction for each lecture item of the text Tx performed by the lecturer Le is displayed based on the lecture data 12cn, and the lecture including the lecturer's voice data H at that time is being held. It is possible to play back the audio data in conjunction with each other while selecting a desired lecture item or the like.

これにより、受講者(講義欠席者含む)St…は、前記講義データ12cnを、復習、再受講、講義欠席後の受講など、適切且つ効果的に利用することができる。 As a result, the students (including those who are absent from the lecture) St ... can appropriately and effectively use the lecture data 12cn for review, re-attendance, and attendance after the lecture is absent.

また、前記構成の電子黒板(講義者端末)10によれば、前記講義者音声データHを含む講義中の音声データに、例えば、講義者Leが受講者Stに呼びかけたり、受講者Stが答えたりする等の応対音声が含まれる場合は、当該講義中の音声データの応対音声が含まれる部分に出力禁止フラグ(マーク[])Xpを付加して前記講義データ12cnに登録する。 Further, according to the electronic blackboard (lecture terminal) 10 having the above configuration, for example, the lecturer Le calls the student St or the student St answers to the voice data in the lecture including the lecturer voice data H. When a response voice such as a blackboard is included, an output prohibition flag (mark []) Xp is added to the portion including the response voice of the voice data in the lecture and registered in the lecture data 12cn.

これにより、前記講義データ12c1を利用する段階で、受講者Stの個人を特定可能な講義者音声データHや受講者音声データHsが自動再生されないように予め設定することができる。 Thereby, at the stage of using the lecture data 12c1, it is possible to set in advance so that the lecturer voice data H and the student voice data Hs that can identify the individual of the student St are not automatically reproduced.

また、前記構成の電子黒板(講義者端末)10によれば、CPU11が検知した講義者Leの指示が、本文の模範音声データHmを再生させるための音声アイコンSPに対する指示である場合、当該音声アイコンSPの指示の検知以降に音声出力部18bにて再生され音声入力部18aにて取得される本文の模範音声データHmを、該当するテキスト位置[中2英語;P18;本文]データと、[音声再生]アイコンのデータとに対応付けて、前記講義データ12cnとして登録する。 Further, according to the electronic blackboard (lecture terminal) 10 having the above configuration, when the instruction of the lecturer Le detected by the CPU 11 is an instruction to the voice icon SP for reproducing the model voice data Hm of the text, the voice is said. The model voice data Hm of the text, which is reproduced by the voice output unit 18b and acquired by the voice input unit 18a after the detection of the instruction of the icon SP, is the corresponding text position [middle 2 English; P18; text] data and [ It is registered as the lecture data 12cn in association with the data of the [Voice reproduction] icon.

これにより、受講者端末20では、前記講義データ12cnの本文の部分を再生する際に、前記電子黒板(講義者端末)10の音声入力部18aにて取得された受講者Stの音声データHs等も混入している可能性のある模範音声データHmを再生せずに、前記[音声再生]アイコンに従い、該当するテキスト位置[中2英語;P18;本文]の電子教科書データに含まれる模範音声データHmを再生させることができる。 As a result, in the student terminal 20, when the text portion of the lecture data 12cn is reproduced, the voice data Hs of the student St acquired by the voice input unit 18a of the electronic blackboard (lecture terminal) 10 or the like. The model voice data included in the electronic textbook data at the corresponding text position [middle 2 English; P18; text] according to the [Play voice] icon without playing the model voice data Hm that may be mixed in. Hm can be regenerated.

なお、前記実施形態において説明した講義データ12cnは、学校の講義を対象として生成する場合として説明したが、当該学校の講義に限らず、各種講習会での講義や各種プレゼンでの講義など、他のあらゆる講義を対象として生成しても、前記同様の作用、効果が得られるのは言うまでもない。 The lecture data 12cn described in the above embodiment has been described as a case of generating a lecture at a school, but the lecture is not limited to the lecture at the school, but lectures at various seminars, lectures at various presentations, etc. Needless to say, the same effects and effects as described above can be obtained even if all the lectures in the above are generated.

前記各実施形態において記載した電子黒板(講義者端末)10による各処理の手法、すなわち、図4,図5のフローチャートに示す講義データ送信処理(その1,2)などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピ(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して配布することができる。 Each of the methods of processing by the electronic black disk (lecture terminal) 10 described in each of the above embodiments, that is, the lecture data transmission processing (Nos. 1 and 2) shown in the flowcharts of FIGS. 4 and 5, is all performed. Recording of memory cards (ROM cards, RAM cards, etc.), magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., as programs that can be executed by computers. It can be stored in a medium and distributed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワークN上を伝送させることができ、このプログラムデータを、通信ネットワークNに接続された電子機器のコンピュータに通信部15によって取り込むことで、前述した実際の受講者St…を対象とした講義からの講義データ12cnの生成機能とその送信機能を実現できる。 Further, the data of the program for realizing each of the above methods can be transmitted on the communication network N in the form of a program code, and the program data is transmitted to the computer of the electronic device connected to the communication network N in the communication unit. By capturing by 15, it is possible to realize a function of generating 12 cn of lecture data from a lecture targeting the above-mentioned actual student St ... and a function of transmitting the same.

本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。 The present invention is not limited to each of the above-described embodiments, and can be variously modified at the implementation stage without departing from the gist thereof. Further, each of the above-described embodiments includes inventions at various stages, and various inventions can be extracted by an appropriate combination of the plurality of disclosed constituent requirements. For example, even if some constituent elements are deleted from all the constituent elements shown in each embodiment or some constituent elements are combined in different forms, the problems described in the section of the problem to be solved by the invention are described. Can be solved and the effect described in the section of effect of the invention can be obtained, the configuration in which this constituent requirement is deleted or combined can be extracted as the invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The inventions described in the original claims of the present application are described below.

[請求項1]
電子機器のデータ送信方法であって、
対象のテキストデータを取得するテキスト取得ステップと、
前記テキスト取得ステップにより取得されたテキストデータを前記電子機器の表示部に表示させるテキスト表示制御ステップと、
前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知ステップと、
前記電子機器の音声入力部に入力された音声データを取得する音声取得制御ステップと、
前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御ステップと、
からなるデータ送信方法。
[Claim 1]
It is a data transmission method for electronic devices.
A text acquisition step to acquire the target text data, and
A text display control step for displaying the text data acquired by the text acquisition step on the display unit of the electronic device, and
A user instruction detection step for detecting a user's instruction on the text data displayed on the display unit, and
A voice acquisition control step for acquiring voice data input to the voice input unit of the electronic device, and
For each detection of the user's instruction by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is the text corresponding to the previous instruction. A data transmission control step to transmit in association with the position of data,
Data transmission method consisting of.

[請求項2]
前記テキスト取得ステップは、講義者が受講者に講義する講義対象のテキストデータを取得し、
前記データ送信制御ステップは、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて講義データとして送信する、
ようにした請求項1に記載のデータ送信方法。
[Claim 2]
In the text acquisition step, the lecturer acquires the text data of the lecture target to be lectured to the student, and the lecturer acquires the text data of the lecture target.
In the data transmission control step, each time the user's instruction is detected by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is obtained. Send as lecture data in association with the position of the text data according to the previous instruction,
The data transmission method according to claim 1.

[請求項3]
前記電子機器は記憶部を有し、
前記データ送信制御ステップは、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて前記記憶部に講義データとして登録し、前記記憶部に登録された講義データを送信する、
ようにした請求項2に記載のデータ送信方法。
[Claim 3]
The electronic device has a storage unit and has a storage unit.
In the data transmission control step, each time the user's instruction is detected by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is obtained. Registered as lecture data in the storage unit in association with the position of the text data according to the previous instruction, and transmit the lecture data registered in the storage unit.
The data transmission method according to claim 2.

[請求項4]
前記表示部はタッチパネル付き表示部であって、
前記ユーザ指示検知ステップは、前記タッチパネル付き表示部に表示されたテキストデータに対するユーザのタッチした位置を検知する、
ようにした請求項2又は請求項3に記載のデータ送信方法。
[Claim 4]
The display unit is a display unit with a touch panel.
The user instruction detection step detects the position touched by the user with respect to the text data displayed on the display unit with a touch panel.
The data transmission method according to claim 2 or 3.

[請求項5]
前記ユーザ指示検知ステップは、前記音声入力部に入力された音声データを音声認識して、前記表示部に表示されたテキストデータに対するユーザの指示を検知する、
ようにした請求項2又は請求項3に記載のデータ送信方法。
[Claim 5]
The user instruction detection step voice-recognizes the voice data input to the voice input unit and detects the user's instruction to the text data displayed on the display unit.
The data transmission method according to claim 2 or 3.

[請求項6]
前記データ送信制御ステップは、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを音声認識し、前記音声認識された音声データが応対の音声データを含むか判断し、
前記応対の音声データを含むと判断した場合、前記音声取得制御ステップにより取得された音声データを、前記応対の音声データを含むと判断した同音声データの部分に出力禁止の制御情報を付加し、前記前回の指示に応じたテキストデータの位置に対応付けて講義データとして送信する、
ようにした請求項2乃至請求項5の何れか1項に記載のデータ送信方法。
[Claim 6]
The data transmission control step voice-recognizes the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction each time the user instruction is detected by the user instruction detection step. Then, it is determined whether the voice-recognized voice data includes the voice data of the response.
When it is determined that the voice data of the response is included, the voice data acquired by the voice acquisition control step is added with the output prohibition control information to the portion of the voice data determined to include the voice data of the response. It is transmitted as lecture data in association with the position of the text data according to the previous instruction.
The data transmission method according to any one of claims 2 to 5.

[請求項7]
前記ユーザの指示を検知したテキストデータの位置が音声アイコンの位置である場合、前記音声取得制御ステップにより取得された音声データの講義データとしての送信は、同取得された音声データを、音声再生の制御アイコンに対応付けて講義データとして送信する、
ようにした請求項2乃至請求項6の何れか1項に記載のデータ送信方法。
[Claim 7]
When the position of the text data that detects the user's instruction is the position of the voice icon, the voice data acquired by the voice acquisition control step is transmitted as the lecture data, and the acquired voice data is used for voice reproduction. Send as lecture data in association with the control icon,
The data transmission method according to any one of claims 2 to 6.

[請求項8]
表示部と、
音声入力部と、
対象のテキストデータを取得するテキスト取得手段と、
前記テキスト取得手段により取得されたテキストデータを前記表示部に表示させるテキスト表示制御手段と、
前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知手段と、
前記音声入力部に入力された音声データを取得する音声取得制御手段と、
前記ユーザ指示検知手段によるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御手段により取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御手段と、
を備えたデータ送信装置。
[Claim 8]
Display and
Voice input section and
A text acquisition method for acquiring the target text data,
A text display control means for displaying the text data acquired by the text acquisition means on the display unit, and
A user instruction detecting means for detecting a user's instruction on the text data displayed on the display unit, and a user instruction detecting means.
A voice acquisition control means for acquiring voice data input to the voice input unit, and
Each time the user's instruction is detected by the user instruction detecting means, the voice data acquired by the voice acquisition control means after the detection of the previous instruction and before the detection of the current instruction is used as a text corresponding to the previous instruction. A data transmission control means that transmits data in association with the position of the data,
A data transmitter equipped with.

[請求項9]
表示部と音声入力部とを備えた電子機器のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
対象のテキストデータを取得するテキスト取得手段、
前記テキスト取得手段により取得されたテキストデータを前記表示部に表示させるテキスト表示制御手段、
前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知手段、
前記音声入力部に入力された音声データを取得する音声取得制御手段、
前記ユーザ指示検知手段によるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御手段により取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御手段、
として機能させるためのコンピュータ読み込み可能なプログラム。
[Claim 9]
A program for controlling a computer of an electronic device having a display unit and a voice input unit.
The computer
Text acquisition method to acquire the target text data,
A text display control means for displaying text data acquired by the text acquisition means on the display unit,
A user instruction detecting means for detecting a user's instruction on the text data displayed on the display unit,
A voice acquisition control means for acquiring voice data input to the voice input unit,
Each time the user's instruction is detected by the user instruction detecting means, the voice data acquired by the voice acquisition control means after the detection of the previous instruction and before the detection of the current instruction is used as a text corresponding to the previous instruction. Data transmission control means for transmitting data in association with the position of data,
A computer-readable program to function as.

10 …電子黒板(講義者端末)
11 …CPU
12 …メモリ
12a…講義データ送信処理プログラム
12b…電子教科書データエリア
12c…講義データエリア
12c1,12c2,…講義データ
12d…受講者データエリア
13 …外部記録媒体
14 …記録媒体読取部
15 …通信部(インターネット通信)
16 …キー入力部
17 …タッチパネル付きカラー表示部
18a…音声入力部(又は音声付き動画入力部)
18b…音声出力部
19 …近距離無線通信部
20 …受講者端末
30 …教育コンテンツサーバ(Webサーバ)
Le …講義者(講師等)
St …受講者(生徒等)
Tx …電子テキスト(教科書等)
10 ... Electronic blackboard (lecture terminal)
11 ... CPU
12 ... Memory 12a ... Lecture data transmission processing program 12b ... Electronic textbook data area 12c ... Lecture data area 12c1, 12c2 ... Lecture data 12d ... Student data area 13 ... External recording medium 14 ... Recording medium reading unit 15 ... Communication unit ( Internet communication)
16 ... Key input unit 17 ... Color display unit with touch panel 18a ... Audio input unit (or video input unit with audio)
18b ... Audio output unit 19 ... Short-range wireless communication unit 20 ... Student terminal 30 ... Educational content server (Web server)
Le ... Lecture (lecturer, etc.)
St ... Students (students, etc.)
Tx ... Electronic textbooks (textbooks, etc.)

本発明は、講義者が行う講義を効果的に利用するための学習制御方法及び学習システムに関する。 The present invention relates to a learning control method and a learning system for effectively using a lecture given by a lecturer.

本発明は、このような課題に鑑みなされたもので、利用者にとって適切に利用できる講義データを得ることが可能な学習制御方法及び学習システムを提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide a learning control method and a learning system capable of obtaining lecture data that can be appropriately used by a user.

本発明に係る学習制御方法は、電子機器が、複数の学習項目を含むテキストデータを表示させ、前記複数の学習項目のうちのいずれかの学習項目を指定するユーザ操作に応じて、指定された学習項目に対応する学習処理を実行させ、前記学習処理の実行中に入力される音声を、前記指定された学習項目に対応付けて記憶し、前記指定された学習項目に対応付けて音声が記憶されている状態で前記テキストデータを表示させた場合に、前記音声が対応付けて記憶されている学習項目を識別表示させ、前記識別表示されている学習項目が指定された場合に、指定された学習項目に対応付けて記憶されている音声を再生する。 The learning control method according to the present invention is designated according to a user operation in which an electronic device displays text data including a plurality of learning items and designates one of the plurality of learning items. The learning process corresponding to the learning item is executed, the voice input during the execution of the learning process is stored in association with the specified learning item, and the voice is stored in association with the specified learning item. When the text data is displayed in the state of being displayed, the learning item stored in association with the voice is identified and displayed, and the learning item specified and displayed is specified. Play the sound stored in association with the learning item.

Claims (9)

電子機器のデータ送信方法であって、
対象のテキストデータを取得するテキスト取得ステップと、
前記テキスト取得ステップにより取得されたテキストデータを前記電子機器の表示部に表示させるテキスト表示制御ステップと、
前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知ステップと、
前記電子機器の音声入力部に入力された音声データを取得する音声取得制御ステップと、
前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御ステップと、
からなるデータ送信方法。
It is a data transmission method for electronic devices.
A text acquisition step to acquire the target text data, and
A text display control step for displaying the text data acquired by the text acquisition step on the display unit of the electronic device, and
A user instruction detection step for detecting a user's instruction on the text data displayed on the display unit, and
A voice acquisition control step for acquiring voice data input to the voice input unit of the electronic device, and
For each detection of the user's instruction by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is the text corresponding to the previous instruction. A data transmission control step to transmit in association with the position of data,
Data transmission method consisting of.
前記テキスト取得ステップは、講義者が受講者に講義する講義対象のテキストデータを取得し、
前記データ送信制御ステップは、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて講義データとして送信する、
ようにした請求項1に記載のデータ送信方法。
In the text acquisition step, the lecturer acquires the text data of the lecture target to be lectured to the student, and the lecturer acquires the text data of the lecture target.
In the data transmission control step, each time the user's instruction is detected by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is obtained. Send as lecture data in association with the position of the text data according to the previous instruction,
The data transmission method according to claim 1.
前記電子機器は記憶部を有し、
前記データ送信制御ステップは、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて前記記憶部に講義データとして登録し、前記記憶部に登録された講義データを送信する、
ようにした請求項2に記載のデータ送信方法。
The electronic device has a storage unit and has a storage unit.
In the data transmission control step, each time the user's instruction is detected by the user instruction detection step, the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction is obtained. Registered as lecture data in the storage unit in association with the position of the text data according to the previous instruction, and transmit the lecture data registered in the storage unit.
The data transmission method according to claim 2.
前記表示部はタッチパネル付き表示部であって、
前記ユーザ指示検知ステップは、前記タッチパネル付き表示部に表示されたテキストデータに対するユーザのタッチした位置を検知する、
ようにした請求項2又は請求項3に記載のデータ送信方法。
The display unit is a display unit with a touch panel.
The user instruction detection step detects the position touched by the user with respect to the text data displayed on the display unit with a touch panel.
The data transmission method according to claim 2 or 3.
前記ユーザ指示検知ステップは、前記音声入力部に入力された音声データを音声認識して、前記表示部に表示されたテキストデータに対するユーザの指示を検知する、
ようにした請求項2又は請求項3に記載のデータ送信方法。
The user instruction detection step voice-recognizes the voice data input to the voice input unit and detects the user's instruction to the text data displayed on the display unit.
The data transmission method according to claim 2 or 3.
前記データ送信制御ステップは、前記ユーザ指示検知ステップによるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御ステップにより取得された音声データを音声認識し、前記音声認識された音声データが応対の音声データを含むか判断し、
前記応対の音声データを含むと判断した場合、前記音声取得制御ステップにより取得された音声データを、前記応対の音声データを含むと判断した同音声データの部分に出力禁止の制御情報を付加し、前記前回の指示に応じたテキストデータの位置に対応付けて講義データとして送信する、
ようにした請求項2乃至請求項5の何れか1項に記載のデータ送信方法。
The data transmission control step voice-recognizes the voice data acquired by the voice acquisition control step after the detection of the previous instruction and before the detection of the current instruction each time the user instruction is detected by the user instruction detection step. Then, it is determined whether the voice-recognized voice data includes the voice data of the response.
When it is determined that the voice data of the response is included, the voice data acquired by the voice acquisition control step is added with the output prohibition control information to the portion of the voice data determined to include the voice data of the response. It is transmitted as lecture data in association with the position of the text data according to the previous instruction.
The data transmission method according to any one of claims 2 to 5.
前記ユーザの指示を検知したテキストデータの位置が音声アイコンの位置である場合、前記音声取得制御ステップにより取得された音声データの講義データとしての送信は、同取得された音声データを、音声再生の制御アイコンに対応付けて講義データとして送信する、
ようにした請求項2乃至請求項6の何れか1項に記載のデータ送信方法。
When the position of the text data that detects the user's instruction is the position of the voice icon, the voice data acquired by the voice acquisition control step is transmitted as the lecture data, and the acquired voice data is used for voice reproduction. Send as lecture data in association with the control icon,
The data transmission method according to any one of claims 2 to 6.
表示部と、
音声入力部と、
対象のテキストデータを取得するテキスト取得手段と、
前記テキスト取得手段により取得されたテキストデータを前記表示部に表示させるテキスト表示制御手段と、
前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知手段と、
前記音声入力部に入力された音声データを取得する音声取得制御手段と、
前記ユーザ指示検知手段によるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御手段により取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御手段と、
を備えたデータ送信装置。
Display and
Voice input section and
A text acquisition method for acquiring the target text data,
A text display control means for displaying the text data acquired by the text acquisition means on the display unit, and
A user instruction detecting means for detecting a user's instruction on the text data displayed on the display unit, and a user instruction detecting means.
A voice acquisition control means for acquiring voice data input to the voice input unit, and
Each time the user's instruction is detected by the user instruction detecting means, the voice data acquired by the voice acquisition control means after the detection of the previous instruction and before the detection of the current instruction is used as a text corresponding to the previous instruction. A data transmission control means that transmits data in association with the position of the data,
A data transmitter equipped with.
表示部と音声入力部とを備えた電子機器のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
対象のテキストデータを取得するテキスト取得手段、
前記テキスト取得手段により取得されたテキストデータを前記表示部に表示させるテキスト表示制御手段、
前記表示部に表示されたテキストデータに対するユーザの指示を検知するユーザ指示検知手段、
前記音声入力部に入力された音声データを取得する音声取得制御手段、
前記ユーザ指示検知手段によるユーザの指示の検知毎に、前回の指示の検知以降で今回の指示の検知より前に前記音声取得制御手段により取得された音声データを、前記前回の指示に応じたテキストデータの位置に対応付けて送信するデータ送信制御手段、
として機能させるためのコンピュータ読み込み可能なプログラム。
A program for controlling a computer of an electronic device having a display unit and a voice input unit.
The computer
Text acquisition method to acquire the target text data,
A text display control means for displaying text data acquired by the text acquisition means on the display unit,
A user instruction detecting means for detecting a user's instruction on the text data displayed on the display unit,
A voice acquisition control means for acquiring voice data input to the voice input unit,
Each time the user's instruction is detected by the user instruction detecting means, the voice data acquired by the voice acquisition control means after the detection of the previous instruction and before the detection of the current instruction is used as a text corresponding to the previous instruction. Data transmission control means for transmitting data in association with the position of data,
A computer-readable program to function as.
JP2021142307A 2017-06-21 2021-09-01 Learning control method and learning system Active JP7279754B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021142307A JP7279754B2 (en) 2017-06-21 2021-09-01 Learning control method and learning system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017121600A JP6939128B2 (en) 2017-06-21 2017-06-21 Data transmission method, data transmission device, and program
JP2021142307A JP7279754B2 (en) 2017-06-21 2021-09-01 Learning control method and learning system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017121600A Division JP6939128B2 (en) 2017-06-21 2017-06-21 Data transmission method, data transmission device, and program

Publications (2)

Publication Number Publication Date
JP2022000771A true JP2022000771A (en) 2022-01-04
JP7279754B2 JP7279754B2 (en) 2023-05-23

Family

ID=65026928

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017121600A Active JP6939128B2 (en) 2017-06-21 2017-06-21 Data transmission method, data transmission device, and program
JP2021142307A Active JP7279754B2 (en) 2017-06-21 2021-09-01 Learning control method and learning system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017121600A Active JP6939128B2 (en) 2017-06-21 2017-06-21 Data transmission method, data transmission device, and program

Country Status (1)

Country Link
JP (2) JP6939128B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6939128B2 (en) * 2017-06-21 2021-09-22 カシオ計算機株式会社 Data transmission method, data transmission device, and program
CN113504965B (en) * 2021-09-09 2021-12-21 北京优幕科技有限责任公司 Business processing system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061343A (en) * 2008-09-03 2010-03-18 Oki Electric Ind Co Ltd Voice recording method, voice reproduction method, voice recording program and voice reproduction program
JP2013011668A (en) * 2011-06-28 2013-01-17 Panasonic Corp Lesson data management device and lesson data management system
JP2016136260A (en) * 2016-02-09 2016-07-28 カシオ計算機株式会社 Terminal, electronic blackboard, server and program
JP2018159737A (en) * 2017-03-22 2018-10-11 カシオ計算機株式会社 Information display device, information display method, and program
JP2019008419A (en) * 2017-06-21 2019-01-17 カシオ計算機株式会社 Data transmission method, data transmission apparatus, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332665A (en) * 1993-05-21 1994-12-02 Fujitsu Ltd Voice input system
US8270587B2 (en) * 2005-10-31 2012-09-18 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for capturing of voice during a telephone conference
JP4852584B2 (en) * 2008-10-23 2012-01-11 ヤフー株式会社 Prohibited word transmission prevention method, prohibited word transmission prevention telephone, prohibited word transmission prevention server
JP5664055B2 (en) * 2010-09-16 2015-02-04 富士ゼロックス株式会社 Video playback device and video playback program
WO2016129118A1 (en) * 2015-02-13 2016-08-18 富士通株式会社 Presentation assist method, presentation assist program, and presentation assist device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061343A (en) * 2008-09-03 2010-03-18 Oki Electric Ind Co Ltd Voice recording method, voice reproduction method, voice recording program and voice reproduction program
JP2013011668A (en) * 2011-06-28 2013-01-17 Panasonic Corp Lesson data management device and lesson data management system
JP2016136260A (en) * 2016-02-09 2016-07-28 カシオ計算機株式会社 Terminal, electronic blackboard, server and program
JP2018159737A (en) * 2017-03-22 2018-10-11 カシオ計算機株式会社 Information display device, information display method, and program
JP2019008419A (en) * 2017-06-21 2019-01-17 カシオ計算機株式会社 Data transmission method, data transmission apparatus, and program

Also Published As

Publication number Publication date
JP7279754B2 (en) 2023-05-23
JP2019008419A (en) 2019-01-17
JP6939128B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
CN103299334B (en) The mobile computer system of vertical integration
Alzubi The role of multimedia tools in Hashemite Kingdom of Jordan education classroom teaching in the digital era
JP5502351B2 (en) Instruction system, instruction method, and program
JP5972707B2 (en) Learning content structuring apparatus, learning content selection support system and support method using the same
CN108628940B (en) Information display device, control method thereof, and recording medium
JP6957918B2 (en) Information display device, information display method, and program
JP7279754B2 (en) Learning control method and learning system
JP2001338077A (en) Language lesson method through internet, system for the same and recording medium
CN112053595A (en) Computer-implemented training system
Hubbard An invitation to CALL
JP2013109168A (en) Electronic textbook device, classroom system, and program
JP6945794B1 (en) Programs, methods, information processing equipment
Khampusaen Past, present and future: From Traditional language laboratories to digital language laboratories and multimedia ICT suites
JP7331025B2 (en) LEARNING SUPPORT SYSTEM, LEARNING SUPPORT METHOD, AND PROGRAM
JP6953825B2 (en) Data transmission method, data transmission device, and program
JP2004078238A (en) Method and system for language lesson using internet and recording medium
Buechel Lip syncs: Speaking… with a twist.
Lee on Satellite TV and the Internet in FLT/L
Van Horn-Christopher Voice-graded business communication documents
JP2004118849A (en) Interactive communication method and interactive communication system using communication line, and recording medium
Brooks-Young Creating content with your tablet
JP2656402B2 (en) Information processing device and English conversation learning system using information processing device
Slimani THE IMPACT OF MODERN INFORMATION AND COMMUNICATION TECHNOLOGY ON THE EDUCATION PROCESS: DIGITAL VIDEOS AS A MODEL
Liao CADNCI—Connected-Audio Digital Note-Taking for Consecutive Interpretation: Optimal Setup for Practice and Assessment
HK40084960A (en) Training task generation method, device, electronic apparatus, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7279754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150