[go: up one dir, main page]

JP2018205354A - Learning support device, learning support system, and program - Google Patents

Learning support device, learning support system, and program Download PDF

Info

Publication number
JP2018205354A
JP2018205354A JP2017106919A JP2017106919A JP2018205354A JP 2018205354 A JP2018205354 A JP 2018205354A JP 2017106919 A JP2017106919 A JP 2017106919A JP 2017106919 A JP2017106919 A JP 2017106919A JP 2018205354 A JP2018205354 A JP 2018205354A
Authority
JP
Japan
Prior art keywords
learner
test
server
learners
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017106919A
Other languages
Japanese (ja)
Other versions
JP7052224B2 (en
Inventor
一広 當間
Kazuhiro Toma
一広 當間
坂本 早苗
Sanae Sakamoto
早苗 坂本
潤 小野
Jun Ono
潤 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017106919A priority Critical patent/JP7052224B2/en
Publication of JP2018205354A publication Critical patent/JP2018205354A/en
Application granted granted Critical
Publication of JP7052224B2 publication Critical patent/JP7052224B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

To provide a learning support device and the like capable of supporting efficient learning.SOLUTION: A learning support device 1 includes: a collection part for collecting answers to test items by a plurality of learners; a storage part for storing the collected answers of the plurality of learners; an analysis part for analyzing item characteristics of the test items on the basis of the answers of the plurality of learners; and a transmission part for transmitting review questions according to the analyzed item characteristics. The review questions are transmitted according to the analysis results relating to the item characteristics so as to support the efficient learning.SELECTED DRAWING: Figure 1

Description

本発明は、学習支援装置、学習支援システム及びプログラムに関する。   The present invention relates to a learning support device, a learning support system, and a program.

学生等の学習者に対して実施したテストの結果について、項目反応理論(Item Response Theory;IRT)に基づく分析を行い、学習者の理解度を測る手法が知られている。なお、以下の説明では簡潔のため、項目反応理論をIRTと記載する。   There is known a method of measuring the degree of understanding of a learner by analyzing the result of a test performed on a learner such as a student based on Item Response Theory (IRT). In the following description, the item response theory is described as IRT for the sake of brevity.

例えば特許文献1では、IRTを用いたコンピュータ適応型テストを実施するシステムであって、各学習者のテスト結果に対してIRT分析を行って学習者の理解度(学力)を推定し、推定した理解度に応じた困難度の問題を学習者に提示するシステムが開示されている。特許文献1によれば、推定した理解度の信頼性係数を算出し、信頼性係数が一定の閾値以上となった場合に十分な分析精度が担保されたと判断し、新たな問題を提示する。   For example, in Patent Document 1, a computer adaptive test using IRT is performed, and an IRT analysis is performed on a test result of each learner to estimate a learner's understanding (scholastic ability). A system that presents a learner with a problem of difficulty according to the degree of understanding is disclosed. According to Patent Document 1, the reliability coefficient of the estimated comprehension level is calculated, and when the reliability coefficient is equal to or higher than a certain threshold, it is determined that sufficient analysis accuracy is secured, and a new problem is presented.

特開2005−215023号公報Japanese Patent Laid-Open No. 2005-215023

しかしながら、特許文献1に係る発明では、分析結果の信頼性を評価しているものの、テスト問題自体の妥当性を評価していない。従って、学習者の理解度を測る評価尺度として妥当でないテスト問題、つまり出来の悪いテスト問題についても学習者は学習させられる虞がある。   However, in the invention according to Patent Document 1, although the reliability of the analysis result is evaluated, the validity of the test problem itself is not evaluated. Therefore, there is a possibility that the learner learns about a test problem that is not valid as an evaluation scale for measuring the degree of understanding of the learner, that is, a poor test problem.

本発明は斯かる事情によりなされたものであって、その目的とするところは、効率的な学習を支援することができる学習支援装置等を提供することにある。   This invention is made | formed by such a situation, The place made into the objective is to provide the learning assistance apparatus etc. which can support efficient learning.

本発明に係る学習支援装置は、複数の学習者によるテスト項目への解答を収集する収集部と、収集した前記複数の学習者の解答を記憶する記憶部と、前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析する分析部と、分析した項目特性に応じて復習問題を送信する送信部とを備えることを特徴とする。   The learning support device according to the present invention includes a collection unit that collects answers to test items by a plurality of learners, a storage unit that stores the collected answers of the plurality of learners, and answers of the plurality of learners. An analysis unit that analyzes the item characteristics of the test items and a transmission unit that transmits review questions according to the analyzed item characteristics.

本発明に係る学習支援装置は、前記テスト項目に対応する前記復習問題を記憶してある第2記憶部と、前記分析部が分析した項目特性に応じて、前記復習問題を抽出する抽出部とを備え、前記送信部は、前記抽出部が抽出した前記復習問題を送信することを特徴とする。   The learning support apparatus according to the present invention includes a second storage unit that stores the review questions corresponding to the test items, an extraction unit that extracts the review questions according to the item characteristics analyzed by the analysis unit, The transmission unit transmits the review question extracted by the extraction unit.

本発明に係る学習支援装置は、前記記憶部は、前記複数の学習者の解答を、前記学習者夫々が解答を行った解答日時と対応付けて記憶し、前記学習者夫々の解答の正誤、及び前記解答日時からの経過時間に基づき、前記学習者毎に前記テスト項目の現在の定着度を推定する推定部を備え、前記送信部は、前記定着度に応じたタイミングで前記復習問題を送信することを特徴とする。   In the learning support device according to the present invention, the storage unit stores the answers of the plurality of learners in association with the answer dates and times when each of the learners answered, and whether each of the learners answers correctly, And an estimation unit that estimates a current fixing degree of the test item for each learner based on an elapsed time from the answer date, and the transmission unit transmits the review question at a timing according to the fixing degree. It is characterized by doing.

本発明に係る学習支援装置は、前記推定部は、前記学習者の属性に応じて前記定着度を推定することを特徴とする。   The learning support apparatus according to the present invention is characterized in that the estimation unit estimates the fixing degree according to an attribute of the learner.

本発明に係る学習支援装置は、前記推定部は、前記テスト項目の属性に応じて前記定着度を推定することを特徴とする。   The learning support device according to the present invention is characterized in that the estimation unit estimates the fixing degree according to an attribute of the test item.

本発明に係る学習支援装置は、前記推定部は、前記分析部が分析した項目特性に応じて前記定着度を推定することを特徴とする。   The learning support apparatus according to the present invention is characterized in that the estimation unit estimates the fixing degree according to the item characteristic analyzed by the analysis unit.

本発明に係る学習支援システムは、学習支援装置、及び該学習支援装置と通信を行う端末装置を有する学習支援システムであって、前記学習支援装置は、前記端末装置から、複数の学習者によるテスト項目への解答を収集する収集部と、収集した前記複数の学習者の解答を記憶する記憶部と、前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析する分析部と、分析した項目特性に応じて復習問題を送信する送信部とを備えることを特徴とする。   A learning support system according to the present invention is a learning support system including a learning support device and a terminal device that communicates with the learning support device, wherein the learning support device performs tests by a plurality of learners from the terminal device. A collection unit that collects answers to items, a storage unit that stores collected answers of the plurality of learners, an analysis unit that analyzes item characteristics of the test items based on the answers of the plurality of learners, And a transmission unit that transmits review questions according to the analyzed item characteristics.

本発明に係るプログラムは、複数の学習者によるテスト項目への解答を収集し、収集した前記複数の学習者の解答を記憶部に記憶し、前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析し、分析した項目特性に応じて復習問題を送信する処理をコンピュータに実行させることを特徴とする。   The program according to the present invention collects answers to test items by a plurality of learners, stores the collected answers of the plurality of learners in a storage unit, and based on the answers of the plurality of learners, the test items The method is characterized by causing the computer to analyze the item characteristics and transmitting a review question according to the analyzed item characteristics.

本発明によれば、効率的な学習を支援することができる。   According to the present invention, efficient learning can be supported.

学習支援システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of a learning assistance system. サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. 学習者DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of learner DB. 解答DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of answer DB. 問題DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of problem DB. IRT分析結果の一例を示す説明図である。It is explanatory drawing which shows an example of an IRT analysis result. 項目特性に応じた復習問題の抽出処理について説明するための説明図である。It is explanatory drawing for demonstrating the extraction process of the review problem according to an item characteristic. 復習問題の送信タイミングについて説明するための説明図である。It is explanatory drawing for demonstrating the transmission timing of a review question. 復習問題の送信処理について説明するための説明図である。It is explanatory drawing for demonstrating the transmission process of a review question. サーバが実行する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which a server performs. 実施の形態2に係るサーバの構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a server according to Embodiment 2. FIG. 実施の形態2に係る送信テーブルのレコードレイアウトの一例を示す説明図である。12 is an explanatory diagram illustrating an example of a record layout of a transmission table according to Embodiment 2. FIG. 実施の形態2に係る復習問題の送信タイミングについて説明するための説明図である。10 is an explanatory diagram for explaining transmission timing of a review question according to Embodiment 2. FIG. 実施の形態2に係るサーバが実行する処理手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing procedure executed by a server according to the second embodiment. 実施の形態3に係る送信テーブルのレコードレイアウトの一例を示す説明図である。10 is an explanatory diagram illustrating an example of a record layout of a transmission table according to Embodiment 3. FIG. 実施の形態3に係るサーバが実行する処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a processing procedure executed by a server according to the third embodiment. 実施の形態4に係る送信テーブルのレコードレイアウトの一例を示す説明図である。FIG. 16 is an explanatory diagram illustrating an example of a record layout of a transmission table according to the fourth embodiment. 実施の形態4に係る復習問題の送信処理について説明するための説明図である。FIG. 10 is an explanatory diagram for explaining review question transmission processing according to Embodiment 4; 実施の形態4に係るサーバが実行する処理手順の一例を示すフローチャートである。14 is a flowchart illustrating an example of a processing procedure executed by a server according to the fourth embodiment. 上述した形態のサーバの動作を示す機能ブロック図である。It is a functional block diagram which shows operation | movement of the server of the form mentioned above.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、学習支援システムの構成例を示す模式図である。本実施の形態では、テスト項目を復習するための復習問題を配信する学習支援システムを一例として説明を行う。学習支援システムは、学習支援装置1及び端末装置2、2、2…を有する。各装置は、インターネット等のネットワークNを介して通信接続されている。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration example of a learning support system. In this embodiment, a learning support system that distributes review questions for reviewing test items will be described as an example. The learning support system includes a learning support device 1 and terminal devices 2, 2, 2,. Each device is connected for communication via a network N such as the Internet.

学習支援装置1は、種々の情報処理を行うと共に、情報の送受信を行う情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施の形態において学習支援装置1はサーバ装置であるものとし、以下では簡便のためサーバ1と読み替える。サーバ1は、学習者が受験したテストの結果をデータベースに蓄積し、テスト結果に対してIRT分析を行い、個々の学習者の学力(理解度)を評価する処理を行う。当該テストは、例えば小学校、中学校等において定期的に実施される試験であり、複数のテスト項目(小問)からなるテストである。サーバ1は、各学校で実施されるテストの結果を収集し、収集したテスト結果についてIRT分析を実行して各学習者の学力等を計測する。サーバ1は、分析結果を示す後述の個票と、分析結果に応じたテストの復習問題とを各学習者向けに配信する(図9参照)。   The learning support apparatus 1 is an information processing apparatus that performs various types of information processing and transmits and receives information, such as a server apparatus and a personal computer. In the present embodiment, the learning support device 1 is assumed to be a server device, and will be read as the server 1 below for simplicity. The server 1 accumulates test results taken by the learner in a database, performs IRT analysis on the test results, and performs a process of evaluating the academic ability (understanding level) of each learner. The test is a test that is regularly performed in, for example, an elementary school, a junior high school, and the like, and is a test that includes a plurality of test items (small questions). The server 1 collects the results of tests performed at each school, performs IRT analysis on the collected test results, and measures the academic ability of each learner. The server 1 distributes a later-described individual vote indicating the analysis result and a test review question according to the analysis result to each learner (see FIG. 9).

端末装置2は、学習者を指導する指導者が使用する端末装置であり、例えばパーソナルコンピュータ、タブレット端末等である。本実施の形態において端末装置2はパーソナルコンピュータであるものとする。指導者は、例えば各学校の教員であり、学習者が受けたテストの採点を行う。端末装置2は、指導者により採点済みの解答データをサーバ1に送信する。サーバ1は、端末装置2から送信された解答データに基づきIRT分析を行う。   The terminal device 2 is a terminal device used by an instructor who teaches a learner, and is, for example, a personal computer or a tablet terminal. In the present embodiment, it is assumed that the terminal device 2 is a personal computer. The instructor is, for example, a teacher at each school, and grades the test taken by the learner. The terminal device 2 transmits the answer data already scored by the instructor to the server 1. The server 1 performs IRT analysis based on the answer data transmitted from the terminal device 2.

なお、例えば端末装置2を各学習者が操作する端末とし、e−ラーニングのように、サーバ1はデジタルテストを提供して個々の学習者に受験させるようにしてもよい。   For example, the terminal device 2 may be a terminal operated by each learner, and the server 1 may provide a digital test and allow each learner to take an examination, as in e-learning.

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、大容量記憶装置14を含む。
制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)等の演算処理装置を含み、記憶部12に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、図2では制御部11を単一のプロセッサとして図示してあるが、制御部11はマルチプロセッサであってもよい。記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要なプログラムP又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための処理回路等を含み、ネットワークNを介して端末装置2、2、2…と情報の送受信を行う。
FIG. 2 is a block diagram illustrating a configuration example of the server 1. The server 1 includes a control unit 11, a storage unit 12, a communication unit 13, and a mass storage device 14.
The control unit 11 includes an arithmetic processing unit such as a CPU (Central Processing Unit) and an MPU (Micro-Processing Unit), and reads and executes the program P stored in the storage unit 12 to thereby execute various information related to the server 1. Processing, control processing, etc. are performed. In FIG. 2, the control unit 11 is illustrated as a single processor, but the control unit 11 may be a multiprocessor. The storage unit 12 includes memory elements such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and stores a program P or data necessary for the control unit 11 to execute processing. The storage unit 12 temporarily stores data and the like necessary for the control unit 11 to execute arithmetic processing. The communication unit 13 includes a processing circuit for performing processing related to communication, and transmits and receives information to and from the terminal devices 2, 2, 2,.

大容量記憶装置14は、例えばハードディスク等を含む大容量の記憶装置である。大容量記憶装置14は、学習者DB141、解答DB142、問題DB143を記憶している。学習者DB141は、テスト項目を受験する学習者に関するデータを記憶している。解答DB142は、各学習者によるテスト項目への解答に関するデータを記憶している。問題DB143は、テスト結果に応じて学習者に配布する復習問題のデータを記憶している。   The large-capacity storage device 14 is a large-capacity storage device including, for example, a hard disk. The large-capacity storage device 14 stores a learner DB 141, an answer DB 142, and a question DB 143. The learner DB 141 stores data related to learners who take test items. The answer DB 142 stores data related to answers to test items by each learner. The question DB 143 stores review question data distributed to learners according to the test results.

なお、本実施の形態において記憶部12及び大容量記憶装置14は一体の記憶装置として構成されていてもよい。また、大容量記憶装置14は複数の記憶装置により構成されていてもよい。また、大容量記憶装置14はサーバ1に接続された外部記憶装置であってもよい。
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、サーバ1に係る情報を表示する表示部等を含んでもよい。
In the present embodiment, the storage unit 12 and the mass storage device 14 may be configured as an integrated storage device. Further, the mass storage device 14 may be constituted by a plurality of storage devices. The mass storage device 14 may be an external storage device connected to the server 1.
In the present embodiment, the server 1 is not limited to the above configuration, and may include, for example, an input unit that receives an operation input, a display unit that displays information related to the server 1, and the like.

図3は、学習者DB141のレコードレイアウトの一例を示す説明図である。学習者DB141は、学習者ID列、氏名列、学校列、学年列、クラス列、番号列を含む。学習者ID列は、各学習者を識別するための識別情報を記憶している。氏名列、学校列、学年列、クラス列、番号列はそれぞれ、学習者IDと対応付けて、各学習者の氏名、学校名、学年、クラス、出席番号を記憶している。   FIG. 3 is an explanatory diagram showing an example of the record layout of the learner DB 141. The learner DB 141 includes a learner ID column, name column, school column, grade column, class column, and number column. The learner ID column stores identification information for identifying each learner. The name column, school column, school year column, class column, and number column store the name, school name, school year, class, and attendance number of each learner in association with the learner ID.

図4は、解答DB142のレコードレイアウトの一例を示す説明図である。解答DB142は、テストID列、科目列、学習者ID列、解答日時列、解答列、得点列、正解率列、理解度列を含む。テストID列は、定期的に実施される各テストを識別するための識別情報を記憶している。科目列は、テストIDと対応付けて、各テストの科目を記憶している。学習者ID列は、テストIDと対応付けて、各テストを受けた学習者の学習者IDを記憶している。解答日時列は、テストID及び学習者IDと対応付けて、各学習者がテストを受けた日付、すなわち解答を行った解答日時を記憶している。解答列は、テストID及び学習者IDと対応付けて、テストで出題された問題別の解答と、当該解答の採点結果とを記憶している。なお、図4では正解の場合を「1」、不正解の場合を「0」として図示してある。得点列、正解率列はそれぞれ、テストID及び学習者IDと対応付けて、各学習者のテスト結果に係る得点、正解率を記憶している。理解度列は、テストID及び学習者IDと対応付けて、後述するIRT分析処理により分析される各学習者の理解度を記憶している。   FIG. 4 is an explanatory diagram showing an example of the record layout of the answer DB 142. The answer DB 142 includes a test ID column, a subject column, a learner ID column, an answer date / time column, an answer column, a score column, a correct answer rate column, and an understanding level column. The test ID column stores identification information for identifying each test performed periodically. The subject column stores the subject of each test in association with the test ID. The learner ID column stores the learner ID of the learner who has received each test in association with the test ID. The answer date column stores the date when each learner took the test, that is, the answer date when the answer was made, in association with the test ID and the learner ID. The answer string stores the answer for each question given in the test and the scoring result of the answer in association with the test ID and the learner ID. In FIG. 4, the correct answer is shown as “1”, and the incorrect answer is shown as “0”. The score sequence and the correct answer rate sequence respectively store the score and the correct answer rate related to the test result of each learner in association with the test ID and the learner ID. The understanding level column stores the level of understanding of each learner analyzed by an IRT analysis process described later in association with the test ID and the learner ID.

図5は、問題DB143のレコードレイアウトの一例を示す説明図である。問題DB143は、問題ID、テストID、テスト項目列、データ列を含む。問題IDは、復習問題を識別するための識別情報を記憶している。テストID列は、問題IDと対応付けて、各復習問題に対応するテストのテストIDを記憶している。テスト項目列は、テストIDと対応付けて、テストで出題された各テスト項目に関する情報を記憶している。具体的にテスト項目列は、各テスト項目の問題番号及び種別を記憶している。データ列は、問題ID、テストID、及びテスト項目と対応付けて、各テスト項目に対応する復習問題のデータを記憶している。   FIG. 5 is an explanatory diagram showing an example of the record layout of the problem DB 143. The problem DB 143 includes a problem ID, a test ID, a test item string, and a data string. The question ID stores identification information for identifying the review question. The test ID column stores a test ID of a test corresponding to each review question in association with the question ID. The test item string stores information related to each test item presented in the test in association with the test ID. Specifically, the test item string stores the problem number and type of each test item. The data string stores review question data corresponding to each test item in association with the question ID, test ID, and test item.

図6は、IRT分析結果の一例を示す説明図である。図6では、IRTによる分析結果を示すグラフ、いわゆる項目特性曲線(Item Characteristic Curve;ICC)を図示している。図6に示すグラフでは、横軸が学習者の理解度を、縦軸がテスト項目の正解率を示す。   FIG. 6 is an explanatory diagram illustrating an example of an IRT analysis result. In FIG. 6, a graph showing the analysis result by IRT, a so-called item characteristic curve (ICC) is shown. In the graph shown in FIG. 6, the horizontal axis represents the learner's level of understanding, and the vertical axis represents the test item accuracy rate.

以下では、サーバ1が実行する処理の概要について説明する。サーバ1は、各指導者の端末装置2、2、2…から、各学習者によるテストの解答を収集する。具体的にサーバ1は、各指導者により採点済みの解答データを収集する。サーバ1は、収集した解答データを解答DB142に蓄積する。例えばサーバ1は、蓄積した解答数が、分析結果の信頼性確保のために必要な所定数に達した場合、収集した解答についてIRTによる分析を行う。   Below, the outline | summary of the process which the server 1 performs is demonstrated. The server 1 collects the answer of the test by each learner from the terminal devices 2, 2, 2,. Specifically, the server 1 collects answer data already scored by each instructor. The server 1 stores the collected answer data in the answer DB 142. For example, when the accumulated number of answers reaches a predetermined number necessary for ensuring the reliability of the analysis result, the server 1 analyzes the collected answers by IRT.

IRTは、評価項目群に対する被検者の反応に応じて、評価項目の特性、又は被検者の特性を分析する手法である。本実施の形態において評価項目は、テストにおける各テスト項目であり、被検者は学習者である。サーバ1は、各テスト項目に対する各学習者の解答(反応)を分析し、テスト項目の特性、及び学習者の特性を評価する。   IRT is a technique for analyzing the characteristics of an evaluation item or the characteristics of a subject according to the response of the subject to the evaluation item group. In this embodiment, the evaluation items are each test item in the test, and the subject is a learner. The server 1 analyzes each learner's answer (response) to each test item, and evaluates the characteristics of the test item and the characteristics of the learner.

具体的にサーバ1は、分析結果が一定の数学モデルに当てはまると仮定して分析を行う。例えばサーバ1は、解答データに対して2パラメータロジスティックモデル(2PLM)を適用し、以下の式(1)に当てはめて分析を行う。   Specifically, the server 1 performs the analysis assuming that the analysis result applies to a certain mathematical model. For example, the server 1 applies a two-parameter logistic model (2PLM) to the answer data and applies the analysis to the following equation (1) for analysis.

Figure 2018205354
Figure 2018205354

Dは定数、θiは各学習者の理解度、ajはテスト項目の識別力、bjはテスト項目の困難度、Pjはテスト項目の正解率である。また、符号iは学習者を識別する符号を、符号jはテスト項目を識別する符号を示す。
サーバ1は、複数の解答者による解答のデータ群から、式(1)を満たす識別力aj、困難度bj、及び理解度θiを特定する。例えばサーバ1は、PROX法を用いて離散的な解答データの線形化を行い、最尤推定法、ベイズ推定法等を用いて各パラメータを特定する。当該アルゴリズムは公知であるため、詳細な説明は省略する。
D is a constant, θi is an understanding level of each learner, aj is a test item discrimination power, bj is a test item difficulty level, and Pj is a test item accuracy rate. The symbol i indicates a code for identifying a learner, and the symbol j indicates a code for identifying a test item.
The server 1 specifies the discriminating power aj, the difficulty bj, and the comprehension degree θi that satisfy Expression (1) from the data group of answers by a plurality of answerers. For example, the server 1 linearizes discrete answer data using the PROX method, and specifies each parameter using a maximum likelihood estimation method, a Bayes estimation method, or the like. Since the algorithm is publicly known, detailed description thereof is omitted.

IRT分析により、サーバ1は、理解度θiの学習者がj番目のテスト項目に正解する確率Pjを導出する。図6は、導出されるIRT分析の分析結果の一例を示すグラフである。なお「問1」はaj=1、bj=−1とし、「問2」はaj=0.5、bj=−1とし、「問3」はaj=1、bj=1として計算してある。   Through the IRT analysis, the server 1 derives the probability Pj that the learner with the understanding degree θi correctly answers the j-th test item. FIG. 6 is a graph showing an example of the derived analysis result of the IRT analysis. “Question 1” is calculated with aj = 1 and bj = −1, “Question 2” is calculated with aj = 0.5 and bj = −1, and “Question 3” is calculated with aj = 1 and bj = 1. .

IRTによれば、テスト項目の項目特性を示す項目特性曲線は、図6に示すように、理想的にはS字状のカーブを描く。具体的には、理解度θiが低い場合に正答率Pjの増加率は小さいが、理解度θiが困難度bjに近づくと正答率Pjの増加率が大きくなり、理解度θiがさらに高くなると正答率Pjの増加率が再び小さくなる。つまり、理解度θiが困難度bjに近い場合に正解率Pjが立ち上がる形になる。   According to the IRT, the item characteristic curve indicating the item characteristic of the test item ideally draws an S-shaped curve as shown in FIG. Specifically, the increase rate of the correct answer rate Pj is small when the understanding level θi is low, but the increase rate of the correct answer rate Pj increases when the understanding level θi approaches the difficulty level bj, and the correct answer when the understanding level θi further increases. The increasing rate of the rate Pj becomes smaller again. That is, the correct answer rate Pj rises when the understanding degree θi is close to the difficulty level bj.

識別力ajは、評価尺度としてのテスト項目の識別性の良さを表す。具体的には、識別力ajが大きいほど、理解度θiが困難度bjに近い場合の正答率Pjの立ち上がりが急になる。例えば図6に示すように、aj=1である「問1」の正答率Pjは、aj=0.5である「問2」の正答率Pjに比べて、理解度θiが困難度bj=−1に近い場合の増加率が大きい。これにより、「問1」の項目特性曲線は急激なS字カーブを描く。従って、理解度θiが高い学習者と、理解度θiが低い学習者とをよく識別できることになる。一般的に識別力ajは、0.3〜2.0程度の値を取る。   The discriminating power aj represents good discrimination of the test item as an evaluation scale. Specifically, the higher the discriminating power aj, the more rapidly the correct answer rate Pj rises when the understanding level θi is closer to the difficulty level bj. For example, as shown in FIG. 6, the correct answer rate Pj of “question 1” with aj = 1 is higher than the correct answer rate Pj of “question 2” with aj = 0.5. The increase rate is close to -1. Thereby, the item characteristic curve of “Q1” draws a steep S-curve. Therefore, a learner with a high degree of understanding θi and a learner with a low degree of understanding θi can be well identified. Generally, the discriminating power aj takes a value of about 0.3 to 2.0.

困難度bjは、テスト項目の難しさを表す。困難度bjが高いほど、正答率Pjが立ち上がる理解度θiの数値が高くなる。例えば図6に示すように、bj=1である「問3」の正解率Pjはθi=1前後で立ち上がっているが、bj=−1である「問1」の正解率Pjはθi=−1前後で立ち上がる。つまり、困難度bjが高いほど項目特性曲線は図中右寄りに位置し、問題が難しいという分析結果になる。困難度bjは、テスト項目の難易度に応じて正負のいずれの値も取り得る。   The difficulty bj represents the difficulty of the test item. The higher the difficulty level bj, the higher the numerical value of the understanding level θi at which the correct answer rate Pj rises. For example, as shown in FIG. 6, the correct answer rate Pj of “Question 3” with bj = 1 rises around θi = 1, but the correct answer rate Pj of “Question 1” with bj = −1 is θi = −. Stand up around 1. That is, the higher the difficulty level bj is, the more the item characteristic curve is located on the right side in the figure, and the analysis result indicates that the problem is more difficult. The difficulty level bj can take either a positive or negative value depending on the difficulty level of the test item.

上記のように、サーバ1はIRT分析を行うことで、各学習者の学力(理解度θi)だけでなく、実施したテストに係る各テスト項目(小問)の特性を示すパラメータaj、bjを特定する。なお、上記ではIRTに係る数学モデルとして2PLMを採用したが、サーバ1は、テスト項目の困難度bjのみに着目した1パラメータロジスティックモデル(1PLM、いわゆるラッシュモデル)を採用してもよい。また、サーバ1は、識別力aj、困難度bjに加えて、当て推量を考慮した3パラメータロジスティックモデル(3PLM)を採用してもよい。   As described above, the server 1 performs the IRT analysis so that not only the academic ability (understanding degree θi) of each learner but also the parameters aj and bj indicating the characteristics of each test item (sub-question) related to the test performed. Identify. In the above description, 2PLM is adopted as a mathematical model related to IRT. However, the server 1 may adopt a one-parameter logistic model (1PLM, so-called rush model) that focuses only on the test item difficulty bj. Further, the server 1 may adopt a three-parameter logistic model (3PLM) that takes into account the guesswork in addition to the discrimination power aj and the difficulty level bj.

図7は、項目特性に応じた復習問題の抽出処理について説明するための説明図である。本実施の形態においてサーバ1は、各テスト項目(小問)の項目特性に応じて問題の妥当性を評価し、復習する上で妥当なテスト項目についてのみ復習問題を学習者に提供し、復習を行わせる。
図7A〜Dに、4パターンの項目特性曲線を示す。図7Aの項目特性曲線は、図6で示した項目特性曲線と同様に、S字状のカーブを描いている。すなわち、理解度θiに応じて正解率Pjの高い学習者と正解率Pjが低い学習者とが良く識別されており、理解度θiと正解率Pjとが理想的に相関している。
FIG. 7 is an explanatory diagram for explaining a review question extraction process according to item characteristics. In this embodiment, the server 1 evaluates the validity of the problem according to the item characteristics of each test item (sub-question), provides a review question to the learner only for the test item that is valid for review, and reviews To do.
7A to 7D show item characteristic curves of four patterns. The item characteristic curve in FIG. 7A is an S-shaped curve, similar to the item characteristic curve shown in FIG. That is, a learner with a high correct answer rate Pj and a learner with a low correct answer rate Pj are well identified according to the comprehension degree θi, and the comprehension degree θi and the correct answer rate Pj are ideally correlated.

一方で、図7Bの項目特性曲線では、困難度bjが極端に低いため、理解度θiの高低に関わらず正解率Pjが全般的に高くなっている。つまり、テスト項目が簡単過ぎるために多くの学習者が正解したため、テスト項目が評価尺度としての機能を果たしていない。   On the other hand, in the item characteristic curve of FIG. 7B, since the difficulty bj is extremely low, the correct answer rate Pj is generally high regardless of the understanding degree θi. In other words, because the test item is too simple and many learners have answered correctly, the test item does not function as an evaluation scale.

また、図7Cの項目特性曲線では、識別力ajが極端に小さいため、理解度θiの高低に関わらず正解率Pjが一様となっている。つまり、テスト項目の識別性が悪く、学習者の能力差を適切に判別できていない。   Moreover, in the item characteristic curve of FIG. 7C, since the discrimination power aj is extremely small, the correct answer rate Pj is uniform regardless of the level of the understanding degree θi. That is, the test item has poor identification, and the ability difference between learners cannot be properly determined.

また、図7Dの項目特性曲線では、識別力ajが負の値を取るため、理解度θiが高いほど正解率Pjが低くなっている。この場合、例えばテスト項目がいわゆるひっかけ問題となっており、能力のある学習者ほど不正解になっているものと考えられる。図7Dに示す分析結果では、学習者の学力を測定するというテスト本来の目的が失われている。   Moreover, in the item characteristic curve of FIG. 7D, since the discrimination power aj takes a negative value, the higher the comprehension degree θi, the lower the correct answer rate Pj. In this case, for example, the test item is a so-called trapping problem, and it is considered that the more competent learner is wrong. In the analysis result shown in FIG. 7D, the original purpose of the test for measuring the learner's academic ability is lost.

上記のように、問題の出来が悪く、学習者の学力を適切に測定できない場合がある。このようなテスト項目を学習者に復習させても、学力向上を適切に支援できない虞が高い。そこでサーバ1は、IRT分析により特定したテスト項目の項目特性に応じて、学習者に復習させるべきテスト項目を選別する。例えばサーバ1は、識別力aj及び困難度bjが適切な数値範囲にあるテスト項目のみを、復習すべきテスト項目として選別する。例えばサーバ1は、識別力ajが0.3以上かつ2.0以下のテスト項目を選別する。また、例えばサーバ1は、困難度bjが−3.0以上かつ3.0以下のテスト項目を選別する。   As described above, there are cases where the problem is poor and the learner's academic ability cannot be measured appropriately. There is a high possibility that even if the test item is reviewed by the learner, it is not possible to appropriately support the improvement of academic ability. Therefore, the server 1 selects test items to be reviewed by the learner according to the item characteristics of the test items specified by the IRT analysis. For example, the server 1 selects only test items whose discrimination power aj and difficulty bj are in appropriate numerical ranges as test items to be reviewed. For example, the server 1 selects test items having a discrimination power aj of 0.3 or more and 2.0 or less. For example, the server 1 selects test items having a difficulty level bj of −3.0 or more and 3.0 or less.

サーバ1は、選別したテスト項目の復習問題を問題DB143から抽出し、各学習者に向けて配信する。例えばサーバ1は、適切な分析結果が出たテスト項目のうち、各学習者が間違えたテスト項目の復習問題を各学習者に配信する。   The server 1 extracts the review questions for the selected test items from the problem DB 143 and distributes them to each learner. For example, the server 1 distributes, to each learner, a review question for a test item that has been mistaken by each learner among the test items for which appropriate analysis results have been obtained.

図8は、復習問題の送信タイミングについて説明するための説明図である。図8では、各学習者がテスト内容を覚えている割合を時系列的に表した定着度Qiのグラフを図示している。図8に示すグラフでは、横軸が解答日時からの経過時間t(週)を、縦軸が定着度Qiを示す。サーバ1は、図8に示す定着度Qiが所定値以下となったタイミングで、問題DB143から抽出した復習問題を各学習者に送信する。   FIG. 8 is an explanatory diagram for explaining the transmission timing of the review question. FIG. 8 shows a graph of the fixing degree Qi that represents the ratio of each learner who remembers the test contents in time series. In the graph shown in FIG. 8, the horizontal axis indicates the elapsed time t (weeks) from the answer date and time, and the vertical axis indicates the fixing degree Qi. The server 1 transmits the review questions extracted from the question DB 143 to each learner at the timing when the fixing degree Qi shown in FIG.

図8に示す曲線は、エビングハウスの忘却曲線を近似した曲線である。忘却曲線は、中期記憶又は長期記憶の忘却を表す時系列的な曲線であり、記憶した内容が指数関数状に減衰することが経験的に知られている。エビングハウスの実験によれば、人間の記憶は指数関数状に減衰するが、ある程度忘却した時点で再記憶(復習)を行うことで、記憶内容が忘れにくいものになる。   The curve shown in FIG. 8 is a curve that approximates the forgetting curve of Ebbinghouse. The forgetting curve is a time-series curve representing the forgetting of the medium term memory or the long term memory, and it is empirically known that the stored contents are attenuated exponentially. According to the Ebbinghouse experiment, human memory decays exponentially, but by re-storing (reviewing) when it has been forgotten to some extent, the memory content becomes difficult to forget.

本実施の形態においてサーバ1は、上述の忘却曲線を近似した関数に、個々の学習者の情報を反映させて定着度Qiを推定する。具体的にサーバ1は、個々の学習者に応じて、以下の式(2)により学習者別の定着度Qiを算出する。   In the present embodiment, the server 1 estimates the fixing degree Qi by reflecting information of individual learners in a function approximating the above-mentioned forgetting curve. Specifically, the server 1 calculates a fixing degree Qi for each learner according to the following equation (2) according to each learner.

Figure 2018205354
Figure 2018205354

kは0以上かつ1未満の定数を、tは解答日時から現在までの経過時間を表す。αiは、各学習者の解答の正誤に応じた係数であり、例えばテスト全体での正解数をテスト項目数(小問数)で除算した正解率である。   k represents a constant of 0 or more and less than 1, and t represents an elapsed time from the answer date to the present. αi is a coefficient corresponding to the correctness of each learner's answer, and is, for example, a correct answer rate obtained by dividing the number of correct answers in the entire test by the number of test items (number of small questions).

サーバ1は、式(2)に基づき、忘却曲線に係る近似式k^tに、各学習者の解答の正誤に応じた係数αiを乗算することで、学習者別の定着度Qiを推定する。例えばサーバ1は、各学習者によるテストの正解率を係数αiとする。また、サーバ1は、解答DB142に記憶された解答日時を参照し、各学習者について経過時間tを計算する。サーバ1は、各学習者に係る係数αi及び経過時間tに基づき、式(2)より学習者別の定着度Qiを計算する。   Based on Expression (2), the server 1 multiplies the approximate expression k ^ t related to the forgetting curve by a coefficient αi corresponding to the correctness of each learner's answer, thereby estimating the fixing degree Qi for each learner. . For example, the server 1 sets the correct answer rate of the test by each learner as the coefficient αi. In addition, the server 1 refers to the answer date stored in the answer DB 142 and calculates the elapsed time t for each learner. The server 1 calculates the fixing degree Qi for each learner from Equation (2) based on the coefficient αi and the elapsed time t related to each learner.

図8に、学習者A、B、C夫々の定着度Qiを示す。図8に示すグラフでは、k=0.5として計算を行った。また、学習者Aについてはαi=0.9、学習者Bについてはαi=0.6、学習者Cについてはαi=0.7として計算を行った。また、学習者A、Bはt=0でテストを受けたものとし、学習者Cはt=2でテストを受けたものとしている。   FIG. 8 shows the fixing degrees Qi of the learners A, B, and C, respectively. In the graph shown in FIG. 8, the calculation was performed with k = 0.5. In addition, the calculation was performed with αi = 0.9 for learner A, αi = 0.6 for learner B, and αi = 0.7 for learner C. Further, learners A and B are assumed to have been tested at t = 0, and learner C is assumed to have been tested at t = 2.

図8に示すように、サーバ1は、経過時間tに応じて定着度Qiが指数関数的に減衰するものと推定する。この場合にサーバ1は、各学習者の成績(解答の正誤)に応じて定着度Qiを推定する。例えば図8において、学習者A及びBを比較した場合、成績が良い学習者Aの定着度Qiは、学習者Aよりも成績が悪い学習者Bの定着度Qiよりも高くなっている。このようにサーバ1は、各学習者の解答の正誤に応じて係数αiを決定することで、各学習者の成績に応じた定着度Qiを計算する。   As shown in FIG. 8, the server 1 estimates that the fixing degree Qi attenuates exponentially according to the elapsed time t. In this case, the server 1 estimates the fixing degree Qi according to each learner's grade (correctness of answer). For example, in FIG. 8, when learners A and B are compared, the fixing degree Qi of the learner A with good results is higher than the fixing degree Qi of the learner B with poor results than the learner A. As described above, the server 1 determines the coefficient αi according to whether each learner's answer is correct or not, thereby calculating the fixing degree Qi according to each learner's grade.

また、サーバ1は、各学習者がテストを受けた解答日時を基準に定着度Qiを計算する。例えば図8において、学習者A及びCを比較した場合、サーバ1は、学習者Aについてはt=0からの経過時間tに応じて定着度Qiを計算する。一方、サーバ1は、学習者Cについては、学習者Aから2週間遅れのt=2からの経過時間t−2に応じて定着度Qiを計算する。   Further, the server 1 calculates the fixing degree Qi based on the answer date and time when each learner took the test. For example, in FIG. 8, when learners A and C are compared, the server 1 calculates the fixing degree Qi for learner A according to the elapsed time t from t = 0. On the other hand, for the learner C, the server 1 calculates the fixing degree Qi according to the elapsed time t-2 from t = 2, which is two weeks behind the learner A.

例えばサーバ1は、1週間置きに各学習者に係る定着度Qiを計算し、定着度Qiが所定値以下となったか否かを判定する。所定値は、例えば0.4である。サーバ1は、各学習者の定着度Qiが0.4以下となったタイミングで復習問題を送信する。例えば図8の例では、サーバ1は学習者Aに対して、定着度Qiが0.4以下となったt=3のタイミングで復習問題を送信する。また、サーバ1は同様に、学習者B、Cに対し、t=2、4のタイミングでそれぞれ復習問題を送信する。   For example, the server 1 calculates the fixing degree Qi related to each learner every other week, and determines whether or not the fixing degree Qi is equal to or less than a predetermined value. The predetermined value is, for example, 0.4. The server 1 transmits a review question at a timing when the fixing degree Qi of each learner becomes 0.4 or less. For example, in the example of FIG. 8, the server 1 transmits a review question to the learner A at a timing of t = 3 when the fixing degree Qi becomes 0.4 or less. Similarly, the server 1 transmits review questions to learners B and C at timings t = 2 and 4, respectively.

上記のようにサーバ1は、学習者の定着度Qiが低下したタイミング、すなわち、テスト内容を忘れかけたタイミングで復習問題を送信する。エビングハウスの実験によれば、テスト内容(記憶内容)を忘れかけたタイミングで学習者に復習させることで、少ない復習時間で効率的に記憶を定着させることができる。   As described above, the server 1 transmits the review questions at the timing when the student's fixing degree Qi is lowered, that is, at the timing when the test content is almost forgotten. According to the experiment of Ebbinghouse, by letting the learner review at the timing when the test content (memory content) is about to be forgotten, the memory can be efficiently fixed in a short review time.

なお、上記では単純に定着度Qiが所定値以下となったタイミングで復習問題を送信することにしたが、本実施の形態はこれに限定されるものではない。例えばサーバ1は、定着度Qiの減衰率(Qiの一次微分)が所定値以上となり、減衰が緩やかになったタイミングで復習問題を送信するようにしてもよい。つまりサーバ1は、定着度Qiに応じたタイミングで復習問題を送信することができればよく、送信タイミングは定着度Qiが所定値以下になったタイミングに限定されない。   In the above description, the review question is simply transmitted when the fixing degree Qi becomes equal to or less than the predetermined value. However, the present embodiment is not limited to this. For example, the server 1 may transmit the review question at a timing when the decay rate (first derivative of Qi) of the fixing degree Qi becomes equal to or greater than a predetermined value and the decay becomes moderate. That is, the server 1 only needs to be able to transmit review questions at a timing according to the fixing degree Qi, and the transmission timing is not limited to the timing when the fixing degree Qi becomes a predetermined value or less.

図9は、復習問題の送信処理について説明するための説明図である。サーバ1は、上記で決定したタイミングで、図9に示すデータを学習者に向けて送信する。具体的にサーバ1は、テスト結果を示す個票(図9上)と、復習問題(図9下の「レコメンドシート」)を送信する。なお、サーバ1は、指導者の端末装置2に個票及び復習問題を送信してもよく、各学習者に対して直接的に配信してもよい。図9に示すように、個票は、各学習者のテストの採点結果、成績に応じて自動生成されるコメントのほかに、復習問題に取り組むべき旨の指示(図9の楕円で示す部分)を含む。   FIG. 9 is an explanatory diagram for explaining review question transmission processing. The server 1 transmits the data shown in FIG. 9 toward the learner at the timing determined above. Specifically, the server 1 transmits an individual vote indicating the test result (upper part of FIG. 9) and a review question (“recommendation sheet” at the lower part of FIG. 9). Note that the server 1 may transmit individual votes and review questions to the terminal device 2 of the instructor, or may distribute it directly to each learner. As shown in FIG. 9, in addition to comments automatically generated according to each student's test scoring results and grades, the individual vote is an instruction that the review problem should be tackled (the part indicated by an ellipse in FIG. 9) including.

例えばサーバ1は、1回のテストにつき3問の復習問題を学習者に提供する。具体的には上述の如く、サーバ1は、学習者が間違えたテスト項目(小問)に対応する復習問題を提供する。例えば図9に示す例では、サーバ1は、学習者が間違えた問8、問10の復習問題を提供する。なお、問8、問10のみでは3問に達しないため、サーバ1はさらに、発展問題として「B1」の復習問題も提供する。   For example, the server 1 provides a reviewer with three review questions per test. Specifically, as described above, the server 1 provides review questions corresponding to test items (sub-questions) that the learner has made a mistake. For example, in the example shown in FIG. 9, the server 1 provides review questions for questions 8 and 10 that the learner has made a mistake. In addition, since the question 8 and the question 10 alone do not reach three questions, the server 1 further provides a review question “B1” as an expansion problem.

一方で、図9に示す例では、問4は項目特性が適切な数値範囲内にないと判断されたため、サーバ1は、問4に関して復習問題を提供しない。このようにサーバ1は、復習すべきテスト項目を項目特性に応じて適宜に選択し、復習問題を提供する。   On the other hand, in the example shown in FIG. 9, since it is determined that the question 4 is not in the appropriate numerical range, the server 1 does not provide a review question regarding the question 4. As described above, the server 1 appropriately selects the test items to be reviewed according to the item characteristics, and provides the review questions.

図10は、サーバ1が実行する処理手順の一例を示すフローチャートである。図10に基づき、サーバ1が実行する処理内容について説明する。
サーバ1の制御部11は、端末装置2、2、2…から、複数の学習者によるテスト項目への解答を収集する(ステップS11)。例えば制御部11は、各指導者により採点済みの解答データを収集する。制御部11は、収集した各学習者の解答を、各学習者が解答を行った解答日時と対応付けて解答DB142に記憶する(ステップS12)。
FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the server 1. Based on FIG. 10, the processing content which the server 1 performs is demonstrated.
The control unit 11 of the server 1 collects answers to the test items by a plurality of learners from the terminal devices 2, 2, 2,... (Step S11). For example, the control unit 11 collects answer data already scored by each instructor. The control unit 11 stores the collected answers of each learner in the answer DB 142 in association with the answer date and time when each learner answered (Step S12).

制御部11は、収集した複数の学習者の解答に基づき、テスト項目の項目特性、及び各学習者の理解度を分析するIRT分析を行う(ステップS13)。具体的には上述の如く、制御部11は2PLM等の数学モデルに当てはめて採点結果を分析し、テスト項目の識別力aj、困難度bj等の項目特性、及び学習者の理解度θiを分析する。   Based on the collected answers of the plurality of learners, the control unit 11 performs an IRT analysis that analyzes the item characteristics of the test items and the understanding level of each learner (step S13). Specifically, as described above, the control unit 11 applies a mathematical model such as 2PLM to analyze the scoring results, and analyzes the item characteristics such as the discriminating power aj and the difficulty bj of the test item, and the understanding degree θi of the learner. To do.

制御部11は、分析したテスト項目の項目特性に応じて、学習者に提供する復習問題を問題DB143から抽出する(ステップS14)。例えば制御部11は、識別力ajが所定の数値範囲内にある場合、当該テスト項目を復習させるべきと判断する。また、例えば制御部11は、困難度bjが所定の数値範囲内にある場合、当該テスト項目を復習させるべきと判断する。これにより制御部11は、項目特性曲線が理想的なS字カーブを描くテスト項目を特定し、特定したテスト項目についてのみ復習問題を抽出する。   The control unit 11 extracts a review question to be provided to the learner from the problem DB 143 in accordance with the item characteristics of the analyzed test item (step S14). For example, the control unit 11 determines that the test item should be reviewed when the discrimination power aj is within a predetermined numerical range. For example, when the degree of difficulty bj is within a predetermined numerical range, the control unit 11 determines that the test item should be reviewed. Thereby, the control part 11 specifies the test item in which an item characteristic curve draws an ideal S-shaped curve, and extracts a review question only about the specified test item.

制御部11は、学習者夫々の解答の正誤、及び学習者夫々の解答日時からの経過時間に応じて、学習者毎にテスト項目の現在の定着度を推定する(ステップS15)。具体的には上述の如く、制御部11は、エビングハウスの忘却曲線に係る近似式に、解答の正誤に応じた係数αiを乗算して学習者別の定着度Qiを計算する。   The control unit 11 estimates the current degree of fixation of the test item for each learner according to the correctness of each learner's answer and the elapsed time from each learner's answer date (step S15). Specifically, as described above, the control unit 11 calculates the fixing degree Qi for each learner by multiplying the approximate expression related to the forgetting curve of the Ebbing House by a coefficient αi corresponding to the correctness of the answer.

制御部11は、ステップS15で推定した現在の定着度に応じて、復習問題を送信するタイミングであるか否かを判定する(ステップS16)。例えば制御部11は、定着度Qiが所定値以下となったか否かを判定する。送信するタイミングでないと判定した場合(S16:NO)、制御部11は、処理をステップS15に戻す。送信するタイミングであると判定した場合(S16:YES)、制御部11は、ステップS14で抽出した復習問題を送信し(ステップS17)、一連の処理を終了する。   The control unit 11 determines whether it is time to transmit the review question according to the current fixing degree estimated in Step S15 (Step S16). For example, the control unit 11 determines whether or not the fixing degree Qi is equal to or less than a predetermined value. If it is determined that it is not the timing to transmit (S16: NO), the control unit 11 returns the process to step S15. When it determines with it being the timing to transmit (S16: YES), the control part 11 transmits the review question extracted by step S14 (step S17), and complete | finishes a series of processes.

なお、上記でサーバ1は、各指導者により採点済みの解答データを端末装置2から取得するものとしたが、本実施の形態はこれに限定されない。例えばサーバ1は、端末装置2から収集した解答を模範解答と照合し、採点を行ってもよい。すなわちサーバ1は、未採点の解答データを収集するものとしてもよい。   In addition, although the server 1 shall acquire the answer data scored by each leader from the terminal device 2 above, this Embodiment is not limited to this. For example, the server 1 may perform scoring by checking the answers collected from the terminal device 2 with the model answer. That is, the server 1 may collect unscored answer data.

また、上記でサーバ1は、学習者が間違えたテスト項目についてのみ復習問題を提供することにしたが、学習者が正解したテスト項目についても復習問題を提供してもよい。   Moreover, although the server 1 provided the review question only about the test item which the learner made a mistake above, you may provide the review question also about the test item which the learner answered correctly.

また、上記では、テストで出題された問題とは別に復習用の問題を問題DB143に用意しておき、復習用の問題を端末装置2に配信することとしたが、本実施の形態はこれに限定されるものではない。例えばサーバ1は、テストで出題された問題をそのまま復習問題として配信することとしてもよい。すなわち、サーバ1はIRT分析により出題問題が理想的な問題であるか否かを判定し、学習者が間違えた問題が理想的な問題である場合、当該問題のデータを、定着度Qiが低下したタイミングで端末装置2に配信する。このように、テストの出題問題と復習問題とは同一であってもよい。   Further, in the above description, a review problem is prepared in the problem DB 143 separately from the questions presented in the test, and the review problem is distributed to the terminal device 2. It is not limited. For example, the server 1 may distribute the question given in the test as it is as a review question. That is, the server 1 determines whether or not the question is an ideal problem by IRT analysis. If the problem that the learner has made is an ideal problem, the fixing degree Qi is reduced for the data of the problem. It is delivered to the terminal device 2 at the timing. Thus, the test questions and review questions may be the same.

以上より、本実施の形態1によれば、テスト項目の項目特性に応じて、復習する上で妥当な問題を選別して学習者に復習させることができるため、効率的な学習を支援することができる。   As described above, according to the first embodiment, according to the item characteristics of the test items, it is possible to select appropriate problems for review and allow the learner to review, thereby supporting efficient learning. Can do.

また、本実施の形態1によれば、テストの出題問題とは別に復習用の問題を問題DB143に用意しておき、復習用の問題を解かせることで、さらに効率的な学習を支援することができる。   In addition, according to the first embodiment, review problems are prepared in the problem DB 143 separately from the test questions, and more efficient learning is supported by solving the review problems. Can do.

また、本実施の形態1によれば、学習者毎に定着度Qiを推定することで、適切なタイミングでの復習を促し、より効率的な学習内容の定着を図ることができる。   Further, according to the first embodiment, by estimating the fixing degree Qi for each learner, review at an appropriate timing can be promoted, and more efficient learning contents can be fixed.

(実施の形態2)
本実施の形態では、学習者の属性に応じて復習問題を送信するタイミングを決定する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図11は、実施の形態2に係るサーバ1の構成例を示すブロック図である。本実施の形態に係るサーバ1は、送信テーブル144を記憶している。送信テーブル144は、復習問題を送信するタイミングを決定する際に利用するテーブルである。
(Embodiment 2)
In the present embodiment, a mode is described in which the timing for transmitting review questions is determined according to the attributes of the learner. In addition, about the content which overlaps with Embodiment 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.
FIG. 11 is a block diagram illustrating a configuration example of the server 1 according to the second embodiment. Server 1 according to the present embodiment stores transmission table 144. The transmission table 144 is a table used when determining the timing for transmitting review questions.

図12は、実施の形態2に係る送信テーブル144のレコードレイアウトの一例を示す説明図である。送信テーブル144は、クラス理解度列、係数列を含む。クラス理解度列は、学習者が属する学校のクラス全体での理解度θcを記憶している。例えばクラス理解度θcは、クラスに属する学習者(生徒)全体の理解度である。係数列は、クラス理解度θcと対応付けて、クラス理解度θcに応じて規定された係数αiの計算方法を記憶している。例えば送信テーブル144は、クラス理解度θcが一定値以下(本実施の形態ではθcが0以下)のクラスについて、クラス理解度θcが低くなるほど係数αiが小さくなるように規定する。つまり送信テーブル144は、成績が悪いクラスの係数αiは小さくなるように規定する。   FIG. 12 is an explanatory diagram illustrating an example of a record layout of the transmission table 144 according to the second embodiment. The transmission table 144 includes a class understanding level column and a coefficient column. The class comprehension degree column stores the comprehension degree θc for the entire class of the school to which the learner belongs. For example, the class understanding level θc is the level of understanding of all learners (students) belonging to the class. The coefficient sequence stores a calculation method of the coefficient αi defined according to the class understanding level θc in association with the class understanding level θc. For example, the transmission table 144 defines a class α having a class comprehension θc that is equal to or smaller than a certain value (θc is 0 or less in the present embodiment) such that the coefficient αi decreases as the class comprehension θc decreases. That is, the transmission table 144 specifies that the coefficient αi of the class with poor results is small.

図13は、実施の形態2に係る復習問題の送信タイミングについて説明するための説明図である。本実施の形態においてサーバ1は、各学習者の解答の正誤、解答日時からの経過時間に加えて、学習者の属性に応じて復習問題を送信するタイミングを決定する。   FIG. 13 is an explanatory diagram for explaining the transmission timing of the review problem according to the second embodiment. In this Embodiment, the server 1 determines the timing which transmits a review question according to a learner's attribute, in addition to the right / wrong of each learner's answer, the elapsed time from an answer date.

学習者の属性は、例えば学習者が属するクラス、学年、学校等のグループに関する情報である。サーバ1は学習者DB141を参照して、各学習者が属するグループを判別する。サーバ1は、各学習者がいずれのグループに属するかに応じて定着度Qiの重み付けを行う。   The attribute of the learner is information on a group such as a class, grade, school, etc. to which the learner belongs, for example. The server 1 refers to the learner DB 141 to determine the group to which each learner belongs. The server 1 weights the fixing degree Qi according to which group each learner belongs to.

例えばサーバ1は、解答DB142を参照し、学習者が属するクラス全体での正解率Pjの平均値を計算する。サーバ1は、分析済みのIRT分析結果(項目特性曲線)を参照して、正解率Pjの平均値からクラス理解度θcを特定する。サーバ1は、特定したクラス理解度θcに基づき、各学習者の現在の定着度Qiを推定する。例えばサーバ1は、送信テーブル144を参照し、定着度Qiの係数αiをクラス理解度θcに応じて計算する。具体的にサーバ1は、クラス理解度θcが一定値以下の場合に、クラス理解度θcに応じた数値と、各学習者の正解率とを乗算して係数αiを計算する。より詳細には、サーバ1は、クラス理解度θcが低いほど係数αiが小さくなるように計算する(図12参照)。これによりサーバ1は、成績が低いクラスの学習者については定着度Qiが低くなるように計算する。   For example, the server 1 refers to the answer DB 142 and calculates the average value of the correct answer rate Pj in the entire class to which the learner belongs. The server 1 refers to the analyzed IRT analysis result (item characteristic curve) and identifies the class understanding degree θc from the average value of the correct answer rate Pj. The server 1 estimates the current fixing degree Qi of each learner based on the specified class understanding degree θc. For example, the server 1 refers to the transmission table 144 and calculates the coefficient αi of the fixing degree Qi according to the class understanding degree θc. Specifically, the server 1 calculates a coefficient αi by multiplying a numerical value corresponding to the class understanding level θc by the correct answer rate of each learner when the class understanding level θc is equal to or less than a certain value. More specifically, the server 1 calculates the coefficient αi to be smaller as the class understanding degree θc is lower (see FIG. 12). As a result, the server 1 calculates so that the degree of fixing Qi is low for learners in a class with low grades.

図13では、クラス理解度θcが高いクラスに属する学習者Aの定着度Qiと、学習者Aのクラスよりもクラス理解度θcが低いクラスに属する学習者Bの定着度Qiとを比較したグラフを示す。なお、図13のグラフでは、学習者A及びBの成績は同じであるものとし、学習者Aについてはαi=1.0(クラス理解度θcに応じた数値)×0.7(学習者Aの正解率)とし、学習者Bについてはαi=0.6×0.7として計算してある。   FIG. 13 is a graph comparing the fixing degree Qi of the learner A belonging to a class having a high class understanding degree θc and the fixing degree Qi of a learner B belonging to a class having a lower class understanding degree θc than the class of the learner A. Indicates. In the graph of FIG. 13, it is assumed that learners A and B have the same grade, and for learner A, αi = 1.0 (a numerical value corresponding to class comprehension degree θc) × 0.7 (learner A The correct answer rate for the learner B is calculated as αi = 0.6 × 0.7.

図13に示すように、学習者A及びBの成績は同じであるが、クラス理解度θcが一定値以下のクラスに属する学習者Bの定着度Qiの方が、学習者Aの定着度Qiよりも高くなっている。これにより、学習者Bに対して復習問題を送信するタイミングの方が、学習者Aに対する送信タイミングよりも早くなる。図13の例では、サーバ1は学習者Bに対してテストを実施してから1週間後に、学習者Aに対しては2週間後に復習問題を送信する。このようにサーバ1は、各学習者の属性に応じて復習問題を配信するタイミングを変更する。これにより、学習者の学習環境に起因する学習遅れの防止を図る。   As shown in FIG. 13, learners A and B have the same grade, but learner B's fixing degree Qi belongs to a class whose class comprehension θc is a certain value or less. Higher than. Thereby, the timing for transmitting the review question to the learner B is earlier than the transmission timing for the learner A. In the example of FIG. 13, the server 1 transmits a review question to the learner B one week after the test is performed and to the learner A two weeks later. In this way, the server 1 changes the timing for distributing the review questions according to the attributes of each learner. Thereby, the learning delay caused by the learner's learning environment is prevented.

図14は、実施の形態2に係るサーバ1が実行する処理手順の一例を示すフローチャートである。IRT分析結果に応じて復習問題を抽出した後(ステップS14)、サーバ1の制御部11は、以下の処理を実行する。
制御部11は、各学習者の属性に応じて、学習者毎にテスト項目の現在の定着度を推定する(ステップS201)。例えば制御部11は、各学習者が属するクラス、学年、学校等のグループに応じて定着度Qiを推定する。具体的に制御部11は、解答DB142を参照し、学習者が属するクラス全体でのクラス理解度θcを特定する。制御部11は送信テーブル144を参照し、特定したクラス理解度θcに応じて係数αiを計算する。具体的に制御部11は、クラス理解度θcが低いクラスに属する学習者については、係数αiが小さくなるように計算する。これにより制御部11は、成績が低いクラスの学習者の定着度Qiを低く推定する。制御部11は、処理をステップS16に移行する。
FIG. 14 is a flowchart illustrating an example of a processing procedure executed by the server 1 according to the second embodiment. After extracting the review questions according to the IRT analysis result (step S14), the control unit 11 of the server 1 executes the following processing.
The control unit 11 estimates the current fixing degree of the test item for each learner according to the attribute of each learner (step S201). For example, the control unit 11 estimates the fixing degree Qi according to the class, grade, school, or the like group to which each learner belongs. Specifically, the control unit 11 refers to the answer DB 142 and specifies the class understanding level θc for the entire class to which the learner belongs. The control unit 11 refers to the transmission table 144 and calculates the coefficient αi according to the specified class understanding degree θc. Specifically, the control unit 11 performs calculation so that the coefficient αi is small for learners belonging to a class having a low class understanding degree θc. Thereby, the control part 11 estimates low the fixing degree Qi of the learner of a class with a low grade. The control part 11 transfers a process to step S16.

なお、上記ではクラス理解度θcに応じて定着度Qiを推定したが、本実施の形態はこれに限定されるものではない。例えばサーバ1は、学習者の学年が高くなるほど係数αiが小さくすることで、定着度Qiが低くなるように推定してもよい。これにより、高学年の学習者(生徒)については復習するタイミングを早め、低学年の学習者については復習するタイミングを遅らせる。このように、サーバ1は学習者の属性に応じて定着度Qiを推定することができればよく、定着度Qiの推定方法は特に限定されない。   In the above description, the fixing degree Qi is estimated according to the class understanding degree θc, but the present embodiment is not limited to this. For example, the server 1 may estimate the fixing degree Qi to be lower by decreasing the coefficient αi as the learner's grade becomes higher. Thus, the review timing is advanced for learners (students) in the upper grades, and the review timing is delayed for learners in the lower grades. Thus, the server 1 only needs to be able to estimate the fixing degree Qi according to the learner's attribute, and the method for estimating the fixing degree Qi is not particularly limited.

また、上記ではクラス理解度θcが一定値以下のクラス、つまり成績が悪いクラスについてのみ定着度Qiの重み付けを行ったが、クラス理解度θcが一定値以上のクラスについても定着度Qiの重み付けを行ってもよい。   In the above description, the fixing degree Qi is weighted only for a class having a class comprehension degree θc of a certain value or less, that is, a class having a poor grade, but the fixing degree Qi is also weighted for a class having a class comprehension degree θc of a certain value or more. You may go.

以上より、本実施の形態2によれば、学習者の属性に応じて定着度Qiを推定することで、学習環境や状況に応じて復習のタイミングを調整することができる。   As described above, according to the second embodiment, it is possible to adjust the review timing according to the learning environment and the situation by estimating the fixing degree Qi according to the learner's attribute.

(実施の形態3)
実施の形態2では、学習者の属性に応じて復習問題を送信するタイミングを決定した。本実施の形態では、テスト項目の属性に応じて復習問題を送信するタイミングを決定する形態について述べる。
図15は、実施の形態3に係る送信テーブル144のレコードレイアウトの一例を示す説明図である。本実施の形態に係る送信テーブル144は、クラス理解度θcに代えて、科目理解度θsを記憶している。科目理解度θsは、各科目のテストから分析される学習者の科目別の理解度θsである。送信テーブル144は、科目理解度θsと対応付けて、科目理解度θsに応じた係数αiの計算方法を記憶している。例えば送信テーブル144は、科目理解度θsが一定値以下(本実施の形態ではθsが0以下)である場合、科目理解度θsが低いほど係数αiが小さくなるように規定する。つまり送信テーブル144は、苦手科目のテストの定着度Qiについては係数αiが小さくなるように規定する。
(Embodiment 3)
In Embodiment 2, the timing for transmitting the review question is determined according to the attribute of the learner. In the present embodiment, a mode is described in which the timing for transmitting the review question is determined according to the attribute of the test item.
FIG. 15 is an explanatory diagram illustrating an example of a record layout of the transmission table 144 according to the third embodiment. The transmission table 144 according to the present embodiment stores a subject understanding level θs instead of the class understanding level θc. The subject comprehension degree θs is the learner's comprehension degree θs for each subject analyzed from the test of each subject. The transmission table 144 stores a calculation method of the coefficient αi corresponding to the subject understanding level θs in association with the subject understanding level θs. For example, the transmission table 144 defines that when the subject comprehension degree θs is equal to or less than a certain value (θs is equal to or less than 0 in the present embodiment), the coefficient αi decreases as the subject comprehension degree θs decreases. That is, the transmission table 144 defines the coefficient αi to be small with respect to the fixing degree Qi of the weak subject test.

サーバ1は、学習者が受けたテストの属性に応じて定着度Qiを計算する。具体的にサーバ1は、送信テーブル144を参照し、科目別の定着度Qiを計算する。例えばサーバ1は、苦手科目(θsが0以下の科目)については係数αiが小さくなるように計算し、定着度Qiを低く見積もって計算する。これによりサーバ1は、苦手科目に係る復習問題の送信タイミングを早める。苦手科目の復習問題を早期に送信することで、サーバ1は、苦手科目における学習のつまづき防止を図る。クラス理解度θcに代えて科目理解度θsを採用する点以外は実施の形態2とほぼ同様であるため、本実施の形態では詳細な図示及び説明を省略する。   The server 1 calculates the fixing degree Qi according to the attribute of the test received by the learner. Specifically, the server 1 refers to the transmission table 144 and calculates the fixing degree Qi for each subject. For example, the server 1 calculates the coefficient αi so that the coefficient αi is small for the weak subject (the subject whose θs is 0 or less), and estimates the degree of fixing Qi low. Thereby, the server 1 advances the transmission timing of the review problem related to the weak subject. By transmitting review questions for weak subjects at an early stage, the server 1 tries to prevent learning failures in poor subjects. Since this embodiment is substantially the same as the second embodiment except that the subject comprehension degree θs is adopted instead of the class comprehension degree θc, detailed illustration and description are omitted in the present embodiment.

図16は、実施の形態3に係るサーバ1が実行する処理手順の一例を示すフローチャートである。IRT分析結果に応じて復習問題を抽出した後(ステップS14)、サーバ1の制御部11は、以下の処理を実行する。
制御部11は、テスト項目の属性に応じて、学習者毎にテスト項目の現在の定着度を推定する(ステップS301)。例えば制御部11は、各学習者が受けたテストの科目に応じて定着度Qiを推定する。具体的に制御部11は、解答DB142を参照し、学習者の科目別理解度θsを科目別に特定する。制御部11は送信テーブル144を参照し、科目理解度θsに応じて係数αiを計算する。具体的に制御部11は、科目理解度θsが一定値以下である場合、科目理解度θsが低いほど係数αiが小さくなるように計算する。これにより制御部11は、苦手科目の定着度Qiを低く推定する。制御部11は、処理をステップS16に移行する。
FIG. 16 is a flowchart illustrating an example of a processing procedure executed by the server 1 according to the third embodiment. After extracting the review questions according to the IRT analysis result (step S14), the control unit 11 of the server 1 executes the following processing.
The control unit 11 estimates the current fixing degree of the test item for each learner according to the attribute of the test item (step S301). For example, the control unit 11 estimates the fixing degree Qi according to the subject of the test received by each learner. Specifically, the control unit 11 refers to the answer DB 142 and specifies the learner's degree of understanding θs for each subject by subject. The control unit 11 refers to the transmission table 144 and calculates the coefficient αi according to the subject understanding degree θs. Specifically, when the subject comprehension degree θs is equal to or less than a predetermined value, the control unit 11 calculates the coefficient αi to be smaller as the subject comprehension degree θs is lower. Thereby, the control part 11 estimates low the fixing degree Qi of a weak subject. The control part 11 transfers a process to step S16.

なお、上記では科目別に定着度Qiを推定することにしたが、本実施の形態はこれに限定されるものではない。例えばサーバ1は、テスト項目の種別(例えば問題形式)に応じて定着度Qiを推定してもよい。具体的にサーバ1は、「知識」を問う問題、「技能」を問う問題、「考え方」を問う問題など、問題の種別毎にIRT分析を行い、学習者の理解度θiを種別毎に分析する。サーバ1は、問題の種別に応じた理解度θiに基づき、係数αiを計算する。このように、サーバ1はテスト項目の属性に応じて定着度Qiを推定することができればよく、テストの属性は科目に限定されない。   In the above description, the fixing degree Qi is estimated for each subject. However, the present embodiment is not limited to this. For example, the server 1 may estimate the fixing degree Qi according to the type of test item (for example, the problem type). Specifically, the server 1 performs IRT analysis for each type of problem, such as a question that asks “knowledge”, a question that asks “skill”, and a question that asks “concept”, and analyzes the understanding degree θi of the learner for each type. To do. The server 1 calculates the coefficient αi based on the understanding degree θi corresponding to the problem type. Thus, the server 1 only needs to be able to estimate the fixing degree Qi according to the attribute of the test item, and the attribute of the test is not limited to the subject.

以上より、本実施の形態3によれば、テスト項目の属性に応じて定着度Qiを推定することで、学習者の能力に応じたタイミングで復習を促すことができる。   As described above, according to the third embodiment, it is possible to prompt the review at the timing according to the learner's ability by estimating the fixing degree Qi according to the attribute of the test item.

(実施の形態4)
本実施の形態では、IRTの分析結果に応じて復習問題の送信タイミングを決定する形態について述べる。
図17は、実施の形態4に係る送信テーブル144のレコードレイアウトの一例を示す説明図である。本実施の形態に係る送信テーブル144は、テスト項目の項目特性に応じて係数αiを規定する。例えば送信テーブル144は、テスト項目の識別力ajに応じて係数αiを規定する。具体的には、送信テーブル144は、識別力ajが0.3〜2.0の理想的な数値範囲に近いほど係数αiが小さくなるように規定している。これによりサーバ1は、識別力ajが理想的な数値範囲に近いほど定着度Qiを低く計算し、早いタイミングで復習問題を学習者に送信する。
(Embodiment 4)
In this embodiment, a mode in which the review timing transmission timing is determined according to the analysis result of the IRT will be described.
FIG. 17 is an explanatory diagram illustrating an example of a record layout of the transmission table 144 according to the fourth embodiment. The transmission table 144 according to the present embodiment defines the coefficient αi according to the item characteristics of the test item. For example, the transmission table 144 defines the coefficient αi according to the discrimination power aj of the test item. Specifically, the transmission table 144 stipulates that the coefficient αi decreases as the discriminating power aj approaches the ideal numerical range of 0.3 to 2.0. Thereby, the server 1 calculates the fixing degree Qi lower as the discriminating power aj is closer to the ideal numerical range, and transmits the review question to the learner at an early timing.

図18は、実施の形態4に係る復習問題の送信処理について説明するための説明図である。実施の形態1においてサーバ1は、項目特性が理想的な数値範囲にあるテスト項目についてのみ復習問題を抽出し、学習者に送信するものとした。一方、本実施の形態においてサーバ1は、テスト項目の項目特性に応じて重み付けを行い、良好な項目特性を有するテスト項目から優先的に復習問題を送信する。   FIG. 18 is an explanatory diagram for explaining review question transmission processing according to the fourth embodiment. In the first embodiment, the server 1 extracts the review questions only for the test items whose item characteristics are in the ideal numerical range and transmits them to the learner. On the other hand, in the present embodiment, the server 1 performs weighting according to the item characteristics of the test items, and transmits the review questions preferentially from the test items having good item characteristics.

具体的にサーバ1は、テストで出題された各テスト項目の解答についてIRT分析を行い、識別力aj、困難度bj等の項目特性を特定する。これによりサーバ1は、図18に示すように、各テスト項目の項目特性曲線を得る。ここで、図18に示すように、識別力ajが理想的な数値範囲にあり、曲線がS字カーブを描くテスト項目(図18左の上段)と、識別力ajが理想的な数値範囲からわずかに外れ、曲線がなだらかになっているテスト項目(図18左の中段)と、識別力ajが極端に小さく、識別力がないテスト項目(図18左の下段)とがあるものとする。この場合にサーバ1は、各テスト項目の識別力ajに応じて、復習問題の送信タイミング、及び送信の有無を決定する。   Specifically, the server 1 performs IRT analysis on the answer of each test item presented in the test, and specifies item characteristics such as discriminating power aj and difficulty bj. Thereby, the server 1 obtains an item characteristic curve of each test item as shown in FIG. Here, as shown in FIG. 18, the discriminating power aj is in an ideal numerical range, the test item in which the curve draws an S-shaped curve (upper left of FIG. 18), and the discriminating power aj is from the ideal numerical range. It is assumed that there are a test item (middle stage on the left in FIG. 18) that is slightly deviated and has a gentle curve, and a test item (lower stage on the left in FIG. 18) that has extremely small discrimination power aj and no discrimination power. In this case, the server 1 determines the transmission timing of the review question and the presence / absence of transmission according to the discrimination power aj of each test item.

例えばサーバ1は、送信テーブル144を参照し、図18上段に示す理想的なテスト項目について係数αiの重み付けを行い、定着度Qiを低く推定する。これによりサーバ1は、早いタイミングで復習問題を送信する。一方、サーバ1は、図18中段に示すテスト項目については、識別力ajが理想的な数値範囲から外れているため、図18上段のテスト項目に比べて係数αiが大きくなるように計算する。これによりサーバ1は、図18上段のテスト項目よりも遅れて復習問題を学習者に送信する。また、サーバ1は、図18下段のテスト項目については、識別力ajがないため、復習すべきテスト項目として採用せず、復習問題を送信しない。このようにサーバ1は、テスト項目の項目特性が理想的な数値であるか否かの度合いに応じて復習問題の送信タイミング、及び送信の有無を決定する。これにより、復習する上で妥当なテスト項目について優先的に復習が促され、より効率的な学習を支援することができる。   For example, the server 1 refers to the transmission table 144, weights the coefficient αi for the ideal test items shown in the upper part of FIG. 18, and estimates the fixing degree Qi to be low. Thereby, the server 1 transmits the review question at an early timing. On the other hand, for the test items shown in the middle part of FIG. 18, the server 1 calculates the coefficient αi to be larger than the test items in the upper part of FIG. As a result, the server 1 transmits the review question to the learner later than the test item in the upper part of FIG. Further, the server 1 does not adopt the test item in the lower part of FIG. 18 as a test item to be reviewed and does not transmit a review question because there is no discriminating power aj. As described above, the server 1 determines the transmission timing of the review question and the presence / absence of transmission according to the degree of whether or not the item characteristics of the test items are ideal numerical values. Thereby, review is promoted preferentially for test items that are appropriate for review, and more efficient learning can be supported.

図19は、実施の形態4に係るサーバ1が実行する処理手順の一例を示すフローチャートである。IRT分析結果に応じて復習問題を抽出した後(ステップS14)、サーバ1の制御部11は、以下の処理を実行する。
制御部11は、ステップS13で分析したテスト項目の項目特性に応じて、テスト項目の現在の定着度を推定する(ステップS401)。例えば制御部11は、テスト項目の識別力ajに応じて定着度Qiを推定する。具体的には、制御部11は送信テーブル144を参照し、識別力ajが理想的な数値範囲に近いほど係数αiが小さくなるように計算する。これにより制御部11は、良好な項目特性を有するテスト項目の定着度Qiを低く計算する。制御部11は、ステップS401で推定した定着度に応じて、復習問題を送信するタイミングであるか否かを判定する(ステップS402)。例えば制御部11は、定着度Qiが所定値以下になったか否かを判定する。送信するタイミングでないと判定した場合(S402:NO)、制御部11は処理をステップS401に戻す。送信するタイミングであると判定した場合(S402:YES)、制御部11は、定着度が所定値以下となったテスト項目の復習問題を送信する(ステップS403)。
FIG. 19 is a flowchart illustrating an example of a processing procedure executed by the server 1 according to the fourth embodiment. After extracting the review questions according to the IRT analysis result (step S14), the control unit 11 of the server 1 executes the following processing.
The control unit 11 estimates the current fixing degree of the test item according to the item characteristic of the test item analyzed in step S13 (step S401). For example, the control unit 11 estimates the fixing degree Qi according to the discrimination power aj of the test item. Specifically, the control unit 11 refers to the transmission table 144 and calculates so that the coefficient αi decreases as the discriminating power aj approaches the ideal numerical range. Thereby, the control unit 11 calculates the fixing degree Qi of the test item having good item characteristics to be low. The control unit 11 determines whether it is time to transmit the review question according to the fixing degree estimated in step S401 (step S402). For example, the control unit 11 determines whether the fixing degree Qi has become a predetermined value or less. If it is determined that it is not the timing to transmit (S402: NO), the control unit 11 returns the process to step S401. When it is determined that it is the transmission timing (S402: YES), the control unit 11 transmits a review question for the test item whose fixing degree is equal to or less than a predetermined value (step S403).

制御部11は、ステップS14で抽出した全ての復習問題について送信を完了した否かを判定する(ステップS404)。送信を完了していないと判定した場合(S404:NO)、制御部11は、処理をステップS401に戻す。これにより制御部11は、復習問題を未送信のテスト項目について現在の定着度Qiを再計算し、定着度Qiが所定値以下となったタイミングで随時送信する。全ての復習問題の送信を完了したと判定した場合(S404:YES)、制御部11は一連の処理を終了する。   The control unit 11 determines whether transmission has been completed for all review questions extracted in step S14 (step S404). When it determines with not having completed transmission (S404: NO), the control part 11 returns a process to step S401. As a result, the control unit 11 recalculates the current fixing degree Qi for the test item for which the review question has not been transmitted, and transmits it at any time when the fixing degree Qi becomes a predetermined value or less. When it is determined that transmission of all review questions has been completed (S404: YES), the control unit 11 ends a series of processes.

以上より、本実施の形態4によれば、テスト項目の項目特性に応じて定着度Qiを推定することで、復習すべきテスト項目を順位付けすることができる。   As described above, according to the fourth embodiment, it is possible to rank the test items to be reviewed by estimating the fixing degree Qi according to the item characteristics of the test items.

(実施の形態5)
図20は、上述した形態のサーバ1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、サーバ1は以下のように動作する。収集部201は、複数の学習者によるテスト項目への解答を収集する。記憶部202は、収集した前記複数の学習者の解答を記憶する。分析部203は、前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析する。送信部204は、分析した項目特性に応じて復習問題を送信する。
(Embodiment 5)
FIG. 20 is a functional block diagram showing the operation of the server 1 in the above-described form. When the control unit 11 executes the program P, the server 1 operates as follows. The collection unit 201 collects answers to test items by a plurality of learners. The storage unit 202 stores the collected answers of the plurality of learners. The analysis unit 203 analyzes item characteristics of the test items based on the answers of the plurality of learners. The transmission unit 204 transmits review questions according to the analyzed item characteristics.

本実施の形態5は以上の如きであり、その他は実施の形態1から4と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。   The fifth embodiment is as described above, and the other parts are the same as those of the first to fourth embodiments. Therefore, the corresponding parts are denoted by the same reference numerals, and detailed description thereof is omitted.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 サーバ(学習支援装置)
11 制御部
12 記憶部
P プログラム
13 通信部
14 大容量記憶装置
141 学習者DB
142 解答DB
143 問題DB
144 送信テーブル
2 端末装置
1 server (learning support device)
11 Control Unit 12 Storage Unit P Program 13 Communication Unit 14 Mass Storage Device 141 Learner DB
142 Answer DB
143 Problem DB
144 Transmission table 2 Terminal device

Claims (8)

複数の学習者によるテスト項目への解答を収集する収集部と、
収集した前記複数の学習者の解答を記憶する記憶部と、
前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析する分析部と、
分析した項目特性に応じて復習問題を送信する送信部と
を備えることを特徴とする学習支援装置。
A collection unit that collects answers to test items from multiple learners,
A storage unit for storing the collected answers of the plurality of learners;
Based on the answers of the plurality of learners, an analysis unit that analyzes item characteristics of the test items;
A learning support apparatus comprising: a transmission unit that transmits review questions according to the analyzed item characteristics.
前記テスト項目に対応する前記復習問題を記憶してある第2記憶部と、
前記分析部が分析した項目特性に応じて、前記復習問題を抽出する抽出部と
を備え、
前記送信部は、前記抽出部が抽出した前記復習問題を送信する
ことを特徴とする請求項1に記載の学習支援装置。
A second storage unit storing the review questions corresponding to the test items;
An extraction unit for extracting the review questions according to the item characteristics analyzed by the analysis unit,
The learning support apparatus according to claim 1, wherein the transmission unit transmits the review question extracted by the extraction unit.
前記記憶部は、前記複数の学習者の解答を、前記学習者夫々が解答を行った解答日時と対応付けて記憶し、
前記学習者夫々の解答の正誤、及び前記解答日時からの経過時間に基づき、前記学習者毎に前記テスト項目の現在の定着度を推定する推定部を備え、
前記送信部は、前記定着度に応じたタイミングで前記復習問題を送信する
ことを特徴とする請求項1又は2に記載の学習支援装置。
The storage unit stores the answers of the plurality of learners in association with the answer date and time when each of the learners answered,
Based on the correctness of each learner's answer and the elapsed time from the answer date and time, the estimation unit for estimating the current degree of fixation of the test item for each learner,
The learning support apparatus according to claim 1, wherein the transmission unit transmits the review question at a timing according to the fixing degree.
前記推定部は、前記学習者の属性に応じて前記定着度を推定する
ことを特徴とする請求項3に記載の学習支援装置。
The learning support apparatus according to claim 3, wherein the estimation unit estimates the fixing degree according to an attribute of the learner.
前記推定部は、前記テスト項目の属性に応じて前記定着度を推定する
ことを特徴とする請求項3又は4に記載の学習支援装置。
The learning support apparatus according to claim 3, wherein the estimation unit estimates the fixing degree according to an attribute of the test item.
前記推定部は、前記分析部が分析した項目特性に応じて前記定着度を推定する
ことを特徴とする請求項3〜5のいずれか1項に記載の学習支援装置。
The learning support device according to claim 3, wherein the estimation unit estimates the degree of fixation according to the item characteristic analyzed by the analysis unit.
学習支援装置、及び該学習支援装置と通信を行う端末装置を有する学習支援システムであって、
前記学習支援装置は、
前記端末装置から、複数の学習者によるテスト項目への解答を収集する収集部と、
収集した前記複数の学習者の解答を記憶する記憶部と、
前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析する分析部と、
分析した項目特性に応じて復習問題を送信する送信部と
を備えることを特徴とする学習支援システム。
A learning support system having a learning support device and a terminal device that communicates with the learning support device,
The learning support device includes:
A collection unit for collecting answers to test items by a plurality of learners from the terminal device;
A storage unit for storing the collected answers of the plurality of learners;
Based on the answers of the plurality of learners, an analysis unit that analyzes item characteristics of the test items;
A learning support system comprising: a transmission unit that transmits review questions according to the analyzed item characteristics.
複数の学習者によるテスト項目への解答を収集し、
収集した前記複数の学習者の解答を記憶部に記憶し、
前記複数の学習者の解答に基づき、前記テスト項目の項目特性を分析し、
分析した項目特性に応じて復習問題を送信する
処理をコンピュータに実行させることを特徴とするプログラム。
Collect answers to test items from multiple learners,
Storing the collected answers of the plurality of learners in a storage unit;
Based on the answers of the plurality of learners, analyze the item characteristics of the test item,
A program that causes a computer to execute a process of sending review questions according to the analyzed item characteristics.
JP2017106919A 2017-05-30 2017-05-30 Learning support device, learning support system and program Active JP7052224B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017106919A JP7052224B2 (en) 2017-05-30 2017-05-30 Learning support device, learning support system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017106919A JP7052224B2 (en) 2017-05-30 2017-05-30 Learning support device, learning support system and program

Publications (2)

Publication Number Publication Date
JP2018205354A true JP2018205354A (en) 2018-12-27
JP7052224B2 JP7052224B2 (en) 2022-04-12

Family

ID=64957706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017106919A Active JP7052224B2 (en) 2017-05-30 2017-05-30 Learning support device, learning support system and program

Country Status (1)

Country Link
JP (1) JP7052224B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020204704A (en) * 2019-06-17 2020-12-24 国立大学法人 筑波大学 Item check device for test based on item response theory
JP2021086422A (en) * 2019-11-28 2021-06-03 株式会社すららネット Learning management system, and control method for learning management system
JP2021093064A (en) * 2019-12-12 2021-06-17 株式会社ナレロー Information processing method, information processing device, storage medium and program
JP2022035001A (en) * 2020-08-19 2022-03-04 株式会社Compass Program, method, and system
WO2022181104A1 (en) * 2021-02-25 2022-09-01 日本電気株式会社 Analysis device, analysis method, and non-transitory computer-readable medium
JP2023067301A (en) * 2021-10-30 2023-05-16 モノグサ株式会社 Information processing method, information processing program, and information processing system
JP2023117590A (en) * 2022-02-14 2023-08-24 大日本印刷株式会社 Information processing device and program
WO2025074927A1 (en) * 2023-10-02 2025-04-10 株式会社ワコム Learning assistance device, program, method, and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229431A (en) * 2001-02-01 2002-08-14 Tdk Corp Learning system
JP2005221895A (en) * 2004-02-06 2005-08-18 Nec Fielding Ltd Examination system, examination problem updating program and automatic updating method of examination problem
JP2006285657A (en) * 2005-03-31 2006-10-19 Ryozo Saito Psychological test system and psychological test method
JP2012137699A (en) * 2010-12-28 2012-07-19 Dainippon Printing Co Ltd Learning support device, learning support method and program
WO2012127593A1 (en) * 2011-03-18 2012-09-27 富士通株式会社 Examination implementation support device, examination implementation support method, and storage medium having examination implementation support method program stored thereupon
JPWO2010119571A1 (en) * 2009-04-17 2012-10-22 株式会社ベネッセコーポレーション Optimal learning item automatic generation system and method for controlling the system
JP2013076754A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Examination device, question management method, program, and recording medium
JP2015106257A (en) * 2013-11-29 2015-06-08 Kddi株式会社 Learning support device, learning support method, and program
US20160019803A1 (en) * 2014-07-21 2016-01-21 New York University System, method and computer-accessible medium for scalable testing and evaluation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002229431A (en) * 2001-02-01 2002-08-14 Tdk Corp Learning system
JP2005221895A (en) * 2004-02-06 2005-08-18 Nec Fielding Ltd Examination system, examination problem updating program and automatic updating method of examination problem
JP2006285657A (en) * 2005-03-31 2006-10-19 Ryozo Saito Psychological test system and psychological test method
JPWO2010119571A1 (en) * 2009-04-17 2012-10-22 株式会社ベネッセコーポレーション Optimal learning item automatic generation system and method for controlling the system
JP2012137699A (en) * 2010-12-28 2012-07-19 Dainippon Printing Co Ltd Learning support device, learning support method and program
WO2012127593A1 (en) * 2011-03-18 2012-09-27 富士通株式会社 Examination implementation support device, examination implementation support method, and storage medium having examination implementation support method program stored thereupon
JP2013076754A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Examination device, question management method, program, and recording medium
JP2015106257A (en) * 2013-11-29 2015-06-08 Kddi株式会社 Learning support device, learning support method, and program
US20160019803A1 (en) * 2014-07-21 2016-01-21 New York University System, method and computer-accessible medium for scalable testing and evaluation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林 貴史, 第78回(平成28年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6022007541, 10 March 2016 (2016-03-10), pages 3 - 01, ISSN: 0004715242 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020204704A (en) * 2019-06-17 2020-12-24 国立大学法人 筑波大学 Item check device for test based on item response theory
JP7290273B2 (en) 2019-06-17 2023-06-13 国立大学法人 筑波大学 Item check device for tests based on item response theory
JP2021086422A (en) * 2019-11-28 2021-06-03 株式会社すららネット Learning management system, and control method for learning management system
JP2021093064A (en) * 2019-12-12 2021-06-17 株式会社ナレロー Information processing method, information processing device, storage medium and program
JP7421207B2 (en) 2019-12-12 2024-01-24 株式会社ナレロー Information processing method, information processing device, storage medium, and program
JP7130266B2 (en) 2020-08-19 2022-09-05 株式会社Compass Program, method and system
JP2022035001A (en) * 2020-08-19 2022-03-04 株式会社Compass Program, method, and system
JPWO2022181104A1 (en) * 2021-02-25 2022-09-01
WO2022181104A1 (en) * 2021-02-25 2022-09-01 日本電気株式会社 Analysis device, analysis method, and non-transitory computer-readable medium
JP2023067301A (en) * 2021-10-30 2023-05-16 モノグサ株式会社 Information processing method, information processing program, and information processing system
JP7495135B2 (en) 2021-10-30 2024-06-04 モノグサ株式会社 Information processing method, information processing program, and information processing system
JP2023117590A (en) * 2022-02-14 2023-08-24 大日本印刷株式会社 Information processing device and program
JP7771799B2 (en) 2022-02-14 2025-11-18 大日本印刷株式会社 Information processing device and program
WO2025074927A1 (en) * 2023-10-02 2025-04-10 株式会社ワコム Learning assistance device, program, method, and system

Also Published As

Publication number Publication date
JP7052224B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
JP7052224B2 (en) Learning support device, learning support system and program
KR101471052B1 (en) Repetition Learning system and its method
US20220318941A1 (en) Apparatus, system, and operation method thereof for evaluating skill of user through artificial intelligence model trained through transferrable feature applied to plural test domains
US11922827B2 (en) Learning management systems and methods therefor
JP6571219B2 (en) RECOMMENDATION SYSTEM AND RECOMMENDATION METHOD
US20150279225A1 (en) Method for individually customizing presentation of forum postings in a moocs system based on cumulative student coursework data processing
JP6683906B1 (en) Learning support system and learning support method
US12125412B2 (en) System and method for generating diagnostic assessment question papers and evaluating their quality
JP2022045310A (en) Test result analysis system and method
CN118551911A (en) Learning optimal path algorithm and system based on learning emotion large model
KR101836206B1 (en) Method, apparatus and computer program for providing personalized educational contents
Williamson Probable cause: Developing warrants for automated scoring of essays
US10248909B2 (en) Assessment performance prediction
JP5437211B2 (en) E-learning system with problem extraction function considering question frequency and learner's weakness
Yaacob et al. The relationship between students’ digital competency skills and adaptation to Industry 4.0 learning technologies
US20220398496A1 (en) Learning effect estimation apparatus, learning effect estimation method, and program
JP7788112B2 (en) Learning support device and program
Wray et al. Determining the propensity for academic dishonesty using decision tree analysis
US20250217587A1 (en) System and method for natural language processing for quality assurance for constructed-response tests
US12394328B2 (en) Pre-training modeling system and method for predicting educational element
KR20190025870A (en) Method, apparatus and computer program for analyzing education contents and users
KR102329611B1 (en) Pre-training modeling system and method for predicting educational factors
Zhang Study on online English learning resource push based on Bayesian inference
KR20210153567A (en) Pre-training modeling system and method for predicting educational factors
JP6541849B1 (en) Problem tendency prediction system and question tendency prediction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211210

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211220

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7052224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150