JP6498106B2 - User-adaptive test program, apparatus and method for selecting model of problem group according to understanding probability - Google Patents
User-adaptive test program, apparatus and method for selecting model of problem group according to understanding probability Download PDFInfo
- Publication number
- JP6498106B2 JP6498106B2 JP2015228366A JP2015228366A JP6498106B2 JP 6498106 B2 JP6498106 B2 JP 6498106B2 JP 2015228366 A JP2015228366 A JP 2015228366A JP 2015228366 A JP2015228366 A JP 2015228366A JP 6498106 B2 JP6498106 B2 JP 6498106B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- probability
- understanding
- answer
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、ユーザ(学習者)の学力を判定するe-Learningシステムの技術に関する。 The present invention relates to a technique of an e-Learning system that determines the academic ability of a user (learner).
ユーザ適応型のe-Learningシステムによれば、過去の多数のユーザの解答傾向を履歴として蓄積したデータベースを用いて、ユーザ毎に、当該ユーザの学習理解に適した問題やコンテンツを選択して明示することができる。また、e-Learningシステムをサーバとしてネットワークに配置することによって、ユーザ毎に異なる問題や学習資料を提供する「テスティング」システムもある。 According to the user-adaptive e-Learning system, using a database that accumulates the answer tendency of many past users as a history, for each user, select and clearly specify problems and contents suitable for the user's learning and understanding. can do. There is also a “testing” system that provides different problems and learning materials for each user by placing the e-Learning system as a server on the network.
ユーザの理解度レベルに対応した問題を複数作成することは非常に難しい。特に、毎回の出題の難易度を一定にし、その理解度レベルを判定することは極めて難しい。これに対して、ユーザの解答結果に応じて、未出の問題のパラメータを推定して、次の問題を選択するアダプティブテスティング(コンピュータ適応型テスト)の技術がある(例えば非特許文献1参照)。 It is very difficult to create a plurality of problems corresponding to the user's level of understanding. In particular, it is extremely difficult to determine the level of comprehension by making the difficulty level of each question constant. On the other hand, there is an adaptive testing (computer adaptive test) technique that estimates the parameters of a problem that has not been issued and selects the next problem according to the answer result of the user (see, for example, Non-Patent Document 1). ).
また、テストデータベースを用いて、テスト実施結果からユーザの理解度を判定する技術もある(例えば特許文献1、非特許文献2及び3参照)。この技術によれば、ユーザの理解度確率に応じた問題を選択して出題し、少ない問題数であっても高い精度でユーザの学力を判定することができる。特に、非特許文献3に記載の技術によれば、ベイジアンネットワーク(Bayesian network)を用いて、学習モデルに対するネットワーク型情報量を最大化する問題を、次に出題するように制御される。
There is also a technique for determining a user's understanding level from a test execution result using a test database (see, for example,
尚、ベイジアンネットワークを動作させる場合、所与の条件に基づいて推定した確率値を含む確率表(Conditional Probability Table)の記憶メモリ空間をコンピュータ内に用意する必要がある。ここで、推定粒度をOとし、ノード数をnとした場合、確率表の要素数は最大でOn個となることが知られており、膨大なコンピュータ計算リソースを用意する必要がある。これに対し、計算リソースを低減する技術として、loopy belief propagation、サンプリング法、Junction Tree法などのアルゴリズムが提案されている(例えば非特許文献5参照)。 When operating a Bayesian network, it is necessary to prepare a storage memory space of a probability table (Conditional Probability Table) including probability values estimated based on given conditions in the computer. Here, when the estimated granularity is O and the number of nodes is n, it is known that the maximum number of elements in the probability table is On, and it is necessary to prepare enormous computer calculation resources. On the other hand, algorithms such as loopy belief propagation, a sampling method, and a Junction Tree method have been proposed as techniques for reducing computational resources (see, for example, Non-Patent Document 5).
しかしながら、ユーザの理解度を判定するための次の問題を、例えばベイジアンネットワークを用いて選択する場合、前述したように大量の演算処理量及び記憶メモリ空間を要する。選択可能な問題数が大量になるほど、理解度確率の算出に要する計算リソースも膨大となる。 However, when the next problem for determining the user's degree of understanding is selected using, for example, a Bayesian network, a large amount of calculation processing and storage memory space are required as described above. The greater the number of questions that can be selected, the greater the computational resources required to calculate the understanding probability.
また、ユーザにとって現実的な学習内容の理解は、単に学習レベル(カリキュラム)に応じて段階的に進むものではない。例えば実際の教育現場の中では、中学1年生が数学の理解度が低い場合、単に小学生の算数に対する理解度の向上に努めればいいというものではない。中学1年生のユーザが数学の「図形」に理解度が低い場合、小学生の算数でも「図形」に基づく理解度から判定すべきである。この場合、小学生の算数の「図形」の問題に対する理解度を判定することによって、結果として出題数全体を減少させることもできる。 In addition, understanding of learning content realistic for the user does not simply proceed step by step according to the learning level (curriculum). For example, in an actual educational setting, when the first grader of junior high school has a low level of understanding of mathematics, it is not just an effort to improve the level of understanding of arithmetic by elementary school students. When a junior high school first grader's understanding level is low in mathematics "graphics", the arithmetic of elementary school students should also be judged from the understanding level based on "graphics". In this case, it is possible to reduce the overall number of questions as a result by determining the degree of understanding of the “graphic” problem of arithmetic by elementary school students.
そこで、本発明は、学習レベル(カリキュラム)に限られず、ユーザにとって理解度が曖昧な問題群の中から、次の問題を選択することができるユーザ適応型のテストプログラム、装置及び方法を提供することを目的とする。 Therefore, the present invention provides a user-adaptive test program, apparatus, and method that can select the next problem from a group of problems that are not limited to the learning level (curriculum) and whose understanding level is ambiguous for the user. For the purpose.
本発明によれば、装置に搭載されたコンピュータを機能させるユーザ適応型のテストプログラムであって、
問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定し、
複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積した学習モデル記憶手段と、
各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを選択する次候補モデル選択手段と、
次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する問題提示手段と、
出題された問題に対する解答の正答/誤答を判定する解答判定手段と、
ユーザ毎に、学習モデル記憶手段における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率を再計算する理解度確率更新手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, a user-adaptive test program for causing a computer mounted on an apparatus to function is provided.
Specify the “node” that includes the probability of understanding, which is associated with the question and the answer,
A learning model storage unit that divides a plurality of nodes into a plurality of models (groups) based on different criteria, and stores a directed graph in which the nodes are connected by arcs for each model,
A next candidate model selecting means for calculating an average understanding probability that is an average value of the understanding probabilities for each model, and selecting a next candidate model based on the average understanding probability;
In the next candidate model, a problem presentation means for selecting a node associated with an unissued problem and presenting the problem,
Answer determination means for determining the correct / incorrect answer of the answer to the given question;
For each user, for each model in the learning model storage means, recalculate the comprehension probabilities at all other nodes associated with the unanswered question based on the already answered question and the correct / incorrect answer of the answer. The computer is made to function as an understanding degree probability update means.
本発明のテストプログラムにおける他の実施形態によれば、
モデルは、複数のノードを、学習レベル及び/又は学習カテゴリを基準として区分されたものであり、
モデルの有向グラフは、学習順序関係に基づいてノード同士をアークで結んだものである
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the test program of the present invention,
The model is obtained by classifying a plurality of nodes based on a learning level and / or a learning category.
It is also preferred that the computer function so that the directed graph of the model is obtained by connecting nodes with arcs based on the learning order relationship.
本発明のテストプログラムにおける他の実施形態によれば、
理解度確率更新手段は、問題に対して、正答の場合に当該ノードの理解度確率を1とし、誤答の場合に当該ノードの理解度確率を0として、学習モデル記憶手段に記録し、理解度確率を再計算する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the test program of the present invention,
The understanding probability update means records the problem in the learning model storage means with an understanding probability of the node of 1 when the answer is correct and an understanding probability of the node of 0 when the answer is incorrect. It is also preferred to have the computer function to recalculate the degree probability.
本発明のテストプログラムにおける他の実施形態によれば、
理解度確率更新手段は、ベイズの定理によって当該ノードの理解度確率を計算する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the test program of the present invention,
The understanding level probability update means preferably causes the computer to function to calculate the understanding level probability of the node by Bayes' theorem.
本発明のテストプログラムにおける他の実施形態によれば、
次候補モデル選択手段は、
ユーザ毎に、各モデルについて複数のノードの理解度確率における標準偏差を更に算出し、
平均値が、理解度確率の中央値(=0.5)から第1の所定閾値の範囲内であり、且つ、標準偏差が第2の所定閾値以上となるモデルを、次候補モデルとして選択する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the test program of the present invention,
The next candidate model selection means is:
For each user, further calculate the standard deviation in understanding probabilities of multiple nodes for each model,
A model whose average value is within the range of the first predetermined threshold value from the median value of understanding probability (= 0.5) and whose standard deviation is equal to or larger than the second predetermined threshold value is selected as the next candidate model. It is also preferable to make the computer function.
本発明のテストプログラムにおける他の実施形態によれば、
次候補モデル選択手段は、複数の次候補モデルが選択された際に、
当該次候補モデルに含まれる全てのノードUの確率変数Xが確率分布Pに従う場合の平均情報量H(X)を、以下の式によって次候補モデル毎に算出し、
H(X)=−Σx∈UP(X=x)logP(X=x)
当該平均情報量H(X)が最も高いモデルを、次候補モデルとして選択する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the test program of the present invention,
The next candidate model selection means, when a plurality of next candidate models are selected,
The average information amount H (X) when the random variables X of all the nodes U included in the next candidate model follow the probability distribution P is calculated for each next candidate model by the following equation:
H (X) = − Σx∈UP (X = x) logP (X = x)
It is also preferable to cause the computer to function so as to select the model having the highest average information amount H (X) as the next candidate model.
本発明のテストプログラムにおける他の実施形態によれば、
問題提示手段が、未出題の学習単元に含まれる所定数以上の問題を提示し、解答判定手段が、所定数以上の問題に対する解答の正答/誤答の結果の後に、理解度確率更新手段及び次候補モデル選択手段が実行される
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the test program of the present invention,
The problem presenting means presents a predetermined number or more of questions included in an unquestioned learning unit, and the answer determination means includes an understanding probability update means after the correct / incorrect answer results for the predetermined number or more of questions. It is also preferable to make the computer function so that the next candidate model selection means is executed.
本発明によれば、ユーザ適応型のテストを実行する装置であって、
問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定し、
複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積した学習モデル記憶手段と、
各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを選択する次候補モデル選択手段と、
次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する問題提示手段と、
出題された問題に対する解答の正答/誤答を判定する解答判定手段と、
ユーザ毎に、学習モデル記憶手段における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率を再計算する理解度確率更新手段と
を有することを特徴とする。
According to the present invention, an apparatus for performing a user adaptive test comprising:
Specify the “node” that includes the probability of understanding, which is associated with the question and the answer,
A learning model storage unit that divides a plurality of nodes into a plurality of models (groups) based on different criteria, and stores a directed graph in which the nodes are connected by arcs for each model,
A next candidate model selecting means for calculating an average understanding probability that is an average value of the understanding probabilities for each model, and selecting a next candidate model based on the average understanding probability;
In the next candidate model, a problem presentation means for selecting a node associated with an unissued problem and presenting the problem,
Answer determination means for determining the correct / incorrect answer of the answer to the given question;
For each user, for each model in the learning model storage means, recalculate the comprehension probabilities at all other nodes associated with the unanswered question based on the already answered question and the correct / incorrect answer of the answer. Comprehension degree probability update means.
本発明によれば、ユーザ適応型のテストを実行する装置のテスト方法であって、
問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定し、
装置は、複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積した学習モデル記憶部を有し、
装置は、
各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを選択する第1のステップと、
次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する第2のステップと、
出題された問題に対する解答の正答/誤答を判定する第3のステップと、
ユーザ毎に、学習モデル記憶手段における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率を再計算する第4のステップと
を実行することを特徴とする。
According to the present invention, there is provided a test method for a device for performing a user adaptive test,
Specify the “node” that includes the probability of understanding, which is associated with the question and the answer,
The apparatus divides a plurality of nodes into a plurality of models (groups) based on different criteria, and has a learning model storage unit that stores in advance a directed graph in which nodes are connected by arcs for each model,
The device
A first step of calculating an average comprehension probability that is an average value of the comprehension probabilities for each model, and selecting a next candidate model based on the average comprehension probabilities;
A second step of selecting a node associated with an unissued problem in the next candidate model and presenting the problem;
A third step of determining the correct / incorrect answer of the answer to the given question;
For each user, for each model in the learning model storage means, recalculate the comprehension probabilities at all other nodes associated with the unanswered question based on the already answered question and the correct / incorrect answer of the answer. And a fourth step.
本発明のユーザ適応型のテストプログラム、装置及び方法によれば、学習レベル(カリキュラム)に限られず、ユーザにとって理解度が曖昧な問題群の中から、次の問題を選択することができる。結果として、ユーザの理解度を判定するための出題数自体を減少させることもできる。 According to the user-adaptive test program, apparatus, and method of the present invention, the next problem can be selected from a group of problems that are not limited to the learning level (curriculum) and whose understanding level is ambiguous for the user. As a result, the number of questions for determining the degree of understanding of the user can be reduced.
以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明におけるテスト装置の機能構成図である。
図2は、本発明のフローチャートである。
FIG. 1 is a functional configuration diagram of a test apparatus according to the present invention.
FIG. 2 is a flowchart of the present invention.
図1によれば、ユーザ適応型のテスティングを実行するテスト装置1と、学習対象となるユーザによって操作される端末2(例えばタブレット端末)とが、ネットワークを介して接続されている。テスト装置1は、端末2に対してサーバとして機能する。また、テスト装置1の機能構成部が端末2に搭載されて、端末単体でテスト装置と機能するものであってもよい。
According to FIG. 1, a
図1のテスト装置1によれば、学習モデル記憶部10と、次候補モデル選択部11と、問題提示部12と、解答判定部13と、理解度確率更新部14とを有する。これらの機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、図2のようにユーザ適応型のテスト方法としても理解できる。
1 includes a learning
[学習モデル記憶部10]
学習モデル記憶部10は、問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定する。問題は、テキストのみならず、画像や映像、音声を含むものであってもよい。学習モデル記憶部10は、複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積する。
[Learning model storage unit 10]
The learning
学習モデル記憶部10は、初期状態として、多数のユーザに対する解答結果から、ノード毎に理解度確率を総合的に付与したものとする。例えば、初期状態の理解度確率は、多数のユーザから得られた平均正答率であってもよい。勿論、人手によって予め設定したものであってもよいし、機械学習を用いて算出したものであってもよい。
As an initial state, the learning
学習モデル記憶部10は、各ノードの理解度確率について、そのノードの問題が出題された後、正答の場合に当該ノードの理解度確率を1とし、誤答の場合に当該ノードの理解度確率を0として記録する。
The learning
図3は、学習モデル記憶部に記憶されたノードの有向グラフの例である。 FIG. 3 is an example of a directed graph of nodes stored in the learning model storage unit.
図3によれば、1つのモデルにおける有向グラフが表されており、学習順序関係に基づいてノード同士がアークで結ばれている。学習順序関係とは、先のノードの理解度確率が、後のノードの理解度確率に影響を及ぼすことを意味する。例えば中学1年生の4月->5月のように学習カリキュラムに応じて大まかに、前から後への関係が特定できればよい。 According to FIG. 3, a directed graph in one model is represented, and nodes are connected by arcs based on a learning order relationship. The learning order relationship means that the understanding probability of the preceding node affects the understanding probability of the subsequent node. For example, it is only necessary to be able to specify the relationship from front to back roughly according to the learning curriculum, such as April-> May for first graders.
各ノードに対応付けられた問題及び解答のテキストを、形態素解析によって抽出した単語集合を比較し、アークは、ノード間の学習内容類似度が高いもの同士を結んだものであってもよい。形態素解析とは、文法及び単語辞書を情報源として用いて、自然言語で書かれた文を言語として意味を持つ最小単位である形態素(Morpheme)に分割し、それぞれの品詞を判別する処理をいう。ここでは、抽出された全ての単語を用いてもよいし、品詞が名詞の形態素のみを抽出するものであってもよい。 A set of words extracted by morphological analysis of question and answer texts associated with each node may be compared, and an arc may be a combination of those having high learning content similarity between nodes. Morphological analysis is a process that uses a grammar and word dictionary as an information source to divide a sentence written in a natural language into morphemes (Morpheme), which are the smallest units that have meaning as a language, and discriminate each part of speech. . Here, all the extracted words may be used, or only morphemes whose part of speech is a noun may be extracted.
尚、ノード間の学習内容類似度を算出する方法としては、例えばTF−IDF(Term Frequency - Inverse Document Frequency:単語の出現頻度−逆出現頻度)法を用いたものであってもよい。この方法によれば、単語wiが、ノードjの学習内容に出現する回数及び頻度から算出したTFi,jと、全てのノードj=1〜Nの内、単語wiが出現するノードの数miを算出したIDFiとを用いて、ノードjに含まれる単語wiに対する重みとする。ノード同士について、学習内容をBag-of-Wordsで表現し、各ベクトルの成分を、該当するTF×IDFiの値で重み付けする。Bag-of-Wordsは、学習テキストを1つの単語の頻度により定義される特徴ベクトルで表現し、文章集合に基づいて予め導出されたIDFを単語の重みとして文章間の類似度を導出するものである。そして、2つのベクトル間でコサイン距離を算出し、これを学習内容間の類似度とする。 As a method for calculating the learning content similarity between nodes, for example, a TF-IDF (Term Frequency-Inverse Document Frequency) method may be used. According to this method, TFi, j calculated from the number and frequency of occurrence of the word wi in the learning content of the node j and the number mi of the nodes where the word wi appears among all the nodes j = 1 to N are obtained. The calculated IDFi is used as a weight for the word wi included in the node j. For each node, the learning content is expressed by Bag-of-Words, and the components of each vector are weighted by the corresponding value of TF × IDFi. Bag-of-Words expresses learning text as a feature vector defined by the frequency of one word, and derives similarity between sentences using IDFs derived in advance based on sentence sets as word weights. is there. Then, a cosine distance is calculated between the two vectors, and this is used as the similarity between the learning contents.
学習内容類似度が所定閾値以上となるノード同士を、有向グラフのアークによって結ぶ。例えばユーザが、先のノードの問題に対する理解度確率の高低に応じて、そのアークによって結ばれた後のノードの問題に対する理解度確率も変化すると考えられる。 Nodes whose learning content similarity is equal to or greater than a predetermined threshold are connected by arcs of a directed graph. For example, it is considered that the probability of understanding the problem of the node after being connected by the arc also changes according to the level of understanding probability of the problem of the previous node.
この有向グラフは、学習指導方針に基づいて、ノード間の関連性を考えながら、人手によって作成されたものであってもよい。また、各ノードの学習単元における学習内容の類似度から、学習開始時期に基づいて自動的に作成されたものであってもよい。例えば同一教科内の各学習単元の係り受けが明確であれば、比較的容易に決定することができる。図3によれば、単一教科「数学」について適用しているが、複数教科に跨るものであってもよいし、専門性が高い資格教育や企業教育に基づくものであってもよい。 This directed graph may be created manually by considering the relationship between the nodes based on the learning guidance policy. Moreover, it may be automatically created based on the learning start time from the similarity of the learning content in the learning unit of each node. For example, if the dependency of each learning unit in the same subject is clear, it can be determined relatively easily. According to FIG. 3, the single subject “mathematics” is applied. However, the subject may extend over a plurality of subjects, or may be based on highly specialized qualification education or corporate education.
図4は、学習モデル記憶部における全てのノードを表す説明図である。図4によれば、小学4年生から中学3年生までの学習単元としてのノードが表されている。小学4年生から6年生までの学習単元を、49個のノードによって表し、中学生の学習単元を、21個のノードによって表している。 FIG. 4 is an explanatory diagram showing all nodes in the learning model storage unit. FIG. 4 shows nodes as learning units from the fourth grader to the third grader. The learning unit from the fourth grade to the sixth grade in elementary school is represented by 49 nodes, and the learning unit for junior high school students is represented by 21 nodes.
図5及び図6は、複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分したものである。モデルは、複数のノードを、学習レベル及び/又は学習カテゴリを基準として区分されたものである。また、同じ学習レベル及び/又は学習カテゴリの中でも、粒度が異なったものとすることもできる。 5 and 6 divide a plurality of nodes into a plurality of models (groups) based on different criteria. The model is obtained by classifying a plurality of nodes on the basis of a learning level and / or a learning category. Also, the granularity may be different within the same learning level and / or learning category.
図5は、学習モデル記憶部における学習レベルに応じて区分したモデルを表す説明図である。図5によれば、学習レベルとして学年毎に、ノードを区分したものである。 FIG. 5 is an explanatory diagram showing a model divided according to the learning level in the learning model storage unit. According to FIG. 5, nodes are divided for each grade as a learning level.
図6は、学習モデル記憶部における学習カテゴリに応じて区分したモデルを表す説明図である。図6によれば、学習カテゴリ毎に、ノードを区分したものである。例えば「数と計算」「量・図形」「数量」のような学習カテゴリによって、複数学年や小学生及び中学校に跨って、ノードが区分されている。 FIG. 6 is an explanatory diagram showing a model divided according to the learning category in the learning model storage unit. According to FIG. 6, the nodes are divided for each learning category. For example, nodes are divided across multiple grades, elementary school students, and junior high schools by learning categories such as “number and calculation”, “quantity / graphic”, and “quantity”.
例えば、モデルm20は、小学生の「数と計算」と中学校の「数と式」を学習領域として、合計15個のノード(小5の4ノード、小6の3ノード、中1の3ノード、中2の2ノード、中3の3ノード)から構成されている。
また、モデルm22及びm23によれば、小学生の「数量関係」は、中学生の「関数」に発展すると共に、「資料の活用」にも発展している。そのために、モデルm22及びm23は、小学生のノードは共通するものの、中学生のノードが異なっている。
For example, the model m20 has a total of 15 nodes (4 nodes in
In addition, according to the models m22 and m23, the “quantity relationship” of elementary school students develops into “functions” of junior high school students and “use of materials”. For this reason, the models m22 and m23 have the same elementary school node but different junior high school student nodes.
図1によれば、問題提示部12、解答判定部13及び理解度確率更新部14は、次候補モデル選択部11によって抽出された次候補モデル単位で実行される。ここでは、以下の3つの実施形態を想定することができる。
(1)実施形態1
次候補モデル毎に、問題提示部12、解答判定部13及び理解度確率更新部14を所定数以上繰り返し実行する。この場合、ユーザに対して、次候補モデル内で所定数の問題/解答を繰り返すために、次候補モデルを選択する計算量を減らすことができる。また、所定数の問題について次候補モデルが固定されるために、学習レベル及び/又は学習カテゴリ内での問題が連続的に出題される。
(2)実施形態2
問題提示部12、解答判定部13及び理解度確率更新部14を実行する毎に、全モデルの中から次候補モデルを再選択する。この場合、毎回、最適な次候補モデルを選択するために計算量が増加するが、学習レベル及び/又は学習カテゴリ外で網羅的に出題することができる。
(3)実施形態3
前述した実施形態1及び2を組み合わせて、次候補モデル内で所定数の問題/解答を繰り返した後に、改めて次候補モデルを選択するように繰り返す。実施形態1によって次候補モデルを選択する計算量を適度に減らすと共に、実施形態2によって学習レベル及び/又は学習カテゴリ外で網羅的に出題することができる。
According to FIG. 1, the
(1)
For each subsequent candidate model, the
(2)
Each time the
(3)
The above-described first and second embodiments are combined, and after repeating a predetermined number of questions / answers in the next candidate model, the next candidate model is selected again. According to the first embodiment, the amount of calculation for selecting the next candidate model can be reduced moderately, and the second embodiment can comprehensively ask questions outside the learning level and / or the learning category.
以下では、モデル毎に実行される問題提示部12、解答判定部13及び理解度確率更新部14を説明した後、次候補モデル選択部11について説明する。
Below, after explaining the
[問題提示部12(S12)]
問題提示部12は、ユーザ毎に、次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する。テスト装置1がサーバである場合、問題提示部12は、ユーザが操作する端末2へ、その問題のコンテンツを送信する。
[Problem Presentation Unit 12 (S12)]
The
[解答判定部13(S13)]
解答判定部13は、ユーザ毎に、出題された問題に対する解答の正答/誤答を判定する。各ノードは、問題及び解答を含んでいるために、ユーザの解答と問題の解答とを比較することによって、正答/誤答を判定する。その判定結果は、学習モデル記憶部10へ反映される。
[Answer determination unit 13 (S13)]
The
本発明によれば、問題提示部12が、未出題の学習単元に含まれる所定数以上の問題を提示し、解答判定部13が、所定数以上の問題に対する解答の正答/誤答の結果の後に、後述する理解度確率更新部14及び次候補モデル選択部11を実行するのが好ましい。所定数のノードにおける理解度確率が算出された後であれば、できる限り、次に問うべき最適なモデルを選択することができる。
According to the present invention, the
前述した図4によれば、10個のノードについて既に解答済みとなっている。そして、これらノードには、理解度確率として既に1(正答)又は0(誤答)のいずれか一方が付与されている。本発明によれば、その後、次に問うべきモデルを選択し、そのモデルの未出の問題に対応するノードを選択する。 According to FIG. 4 described above, answers have already been made for 10 nodes. These nodes are already assigned either 1 (correct answer) or 0 (incorrect answer) as the degree of understanding probability. According to the present invention, the model to be asked next is then selected, and the node corresponding to the unsolved problem of that model is selected.
[理解度確率更新部14(S14)]
理解度確率更新部14は、ユーザ(学習者)毎に、学習モデル記憶部10における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率(尤度)を再計算する。
ユーザが、出題される問題に順次解答していき、後述する解答判定部13によって、正答の場合に当該ノードの理解度確率を1.0とし、誤答の場合に当該ノードの理解度確率を0.0とする。その正答/誤答の結果の毎に、学習モデル記憶部10に記憶された理解度確率を再計算する。これによって、既に出題した問題の解答結果を用いて、未出題の問題の理解度確率を更新することができる。
[Understanding Level Probability Update Unit 14 (S14)]
The comprehension
The user answers the questions to be answered sequentially, and the
理解度確率更新部14によって更新される、各モデルに含まれるノードの理解度確率は、例えば「ベイジアンネットワーク」を用いたものであってもよい。ベイジアンネットワークとは、ノード間の因果関係を、確率によって記述するグラフィカルネットワークである(例えば非特許文献4参照)。本発明におけるネットワークとは、問題及び解答を対応付けた「ノード」を有し、ノード間のアークに付与された類似度を「重み」として付与したグラフ構造をいう。ベイジアンネットワークは、複数ノード間の因果関係の推論を有向非巡回グラフ構造によって表し、個々の変数の関係を条件つき確率で表す確率推論のモデルである。有向非巡回グラフ構造とは、アークに矢印が付与され(有向)、その矢印の経路がノードを巡回することが無いものをいう。ベイジアンネットワークを用いることによって、既に解答された各ノードの正答/誤答から、未出の問題に対応付けられたノードについて、不確実な事象(正答/誤答)の正答率(理解度確率)を定量的に推定することができる。
The understanding degree probability of the node included in each model, which is updated by the understanding degree
ベイジアンネットワークについて、例えばノードA、B、C間の有向グラフとして、親ノードA->子ノードB、親ノードA->子ノードCの場合を考える。
Aの理解度確率:P(A)
Bの理解度確率:P(B)
Cの理解度確率:P(C)
Aが正答した場合におけるCの理解度確率=P(C|A)
Bが正答した場合におけるCの理解度確率=P(C|B)
Aが正答し次にBが正答した場合におけるCの理解度確率
=P(C|A=1,B=1)
出題した問題の解答結果が得られる毎に、未出題の全てのノード(学習単元)の理解度確率が再計算される。これによって、複雑な系であっても、各ノードにおける理解度確率(条件付確率)を用いて、次に続いて出題される問題における確率的な依存関係をモデル化することができる。
For a Bayesian network, for example, consider a case of parent node A-> child node B, parent node A-> child node C as a directed graph between nodes A, B, and C.
A comprehension probability: P (A)
B comprehension probability: P (B)
C comprehension probability: P (C)
C comprehension probability when A answers correctly = P (C | A)
C comprehension probability when B answers correctly = P (C | B)
C comprehension probability when A answers correctly and then B answers correctly
= P (C | A = 1, B = 1)
Every time an answer result of a question that has been given is obtained, the understanding probabilities of all the unanswered nodes (learning units) are recalculated. As a result, even in a complex system, it is possible to model a probabilistic dependency relationship in a problem to be presented subsequently using the understanding probability (conditional probability) at each node.
本発明の有向グラフは、学習単元間の学習順序関係を特定したネットワークである。そのために、任意のノードについて正答した場合、そのノードにつながる他のノードの理解度確率もその正答に応じて高くなる。一方で、任意のノードについて誤答した場合、そのノードにつながる他のノードの理解度確率もその誤答に応じて低くなる。 The directed graph of the present invention is a network that specifies a learning order relationship between learning units. Therefore, when a correct answer is given for an arbitrary node, the probability of understanding of other nodes connected to that node also increases according to the correct answer. On the other hand, when an incorrect answer is made for an arbitrary node, the understanding probability of other nodes connected to that node also decreases according to the incorrect answer.
図7〜図11は、選択されたモデル内でノードの理解度確率が更新されている過程を表す。 7 to 11 show a process in which the node understanding probability is updated in the selected model.
図7は、初期設定時におけるノードの有向グラフ及び理解度確率を表す第1の説明図である。
初期設定時の各学習単元の理解度確率は、多数のユーザの過去の正答/誤答の解答結果から得られた平均値であってもよい。また、その解答結果から得られた平均情報量であってもよい。平均値の場合、理解度確率0.5に近いノードほど、「理解している」「理解していない」の判定が比較的難しい。
最初に、中央値0.5に最も近いノード6−5(理解度確率は0.52)が選択され、そのノードに対応付けられた問題がユーザに出題される。平均情報量の場合、その平均情報量の値が大きい程、「理解している」「理解していない」の判定が比較的難しい。
FIG. 7 is a first explanatory diagram showing a directed graph and understanding probability of a node at the time of initial setting.
The understanding level probability of each learning unit at the time of initial setting may be an average value obtained from the answer results of past correct / incorrect answers of many users. Moreover, the average information amount obtained from the answer result may be sufficient. In the case of the average value, it is relatively difficult to determine “understand” or “understand” as the node is closer to the understanding probability 0.5.
First, the node 6-5 closest to the median value of 0.5 (understanding probability is 0.52) is selected, and the problem associated with that node is presented to the user. In the case of the average information amount, the larger the average information amount value is, the more difficult it is to determine “I understand” or “I don't understand”.
図8は、ノード6−5の問題に正答した場合におけるノードの理解度確率の更新を表す第2の説明図である。図8によれば、ユーザは、ノード6−5の問題に正答している。ノード6−5の理解度確率を1に更新し、ベイジアンネットワークによって理解度確率が1又は0以外の全ノードについて理解度確率を再計算する。 FIG. 8 is a second explanatory diagram showing the update of the understanding probability of the node when the question of the node 6-5 is answered correctly. According to FIG. 8, the user has correctly answered the question of the node 6-5. The comprehension probability of the node 6-5 is updated to 1, and the comprehension probability is recalculated for all nodes other than 1 or 0 by the Bayesian network.
図9は、ノード6−8の問題に誤答した場合におけるノードの理解度確率の更新を表す第3の説明図である。図9によれば、ユーザは、ノード6−8の問題に誤答している。ノード6−8の理解度確率を0に更新し、ベイジアンネットワークによって理解度確率が1又は0以外の全ノードについて理解度確率を再計算する。 FIG. 9 is a third explanatory diagram illustrating the update of the understanding probability of the node when the problem of the node 6-8 is erroneously answered. According to FIG. 9, the user has answered the problem of node 6-8 incorrectly. The comprehension probability of the node 6-8 is updated to 0, and the comprehension probability is recalculated for all nodes other than 1 or 0 by the Bayesian network.
図10は、ノード6−4の問題に誤答した場合におけるノードの理解度確率の更新を表す第4の説明図である。図10によれば、ユーザは、ノード6−4の問題に誤答している。ノード6−4の理解度確率を0に更新し、ベイジアンネットワークによって理解度確率が1又は0以外の全ノードについて理解度確率を再計算する。 FIG. 10 is a fourth explanatory diagram showing the update of the understanding probability of the node when the problem of the node 6-4 is erroneously answered. According to FIG. 10, the user has wrongly answered the problem of node 6-4. The comprehension probability of the node 6-4 is updated to 0, and the comprehension probability is recalculated for all nodes other than 1 or 0 by the Bayesian network.
図11は、ノード6−13の問題に正答した場合におけるノードの理解度確率の更新を表す第5の説明図である。図11によれば、ユーザは、ノード6−13の問題に正答している。ノード6−13の理解度確率を1に更新し、ベイジアンネットワークによって理解度確率が1又は0以外の全ノードについて理解度確率を再計算する。 FIG. 11 is a fifth explanatory diagram illustrating the update of the understanding probability of the node when the question of the node 6-13 is correctly answered. According to FIG. 11, the user has correctly answered the question of the node 6-13. The understanding level probability of the node 6-13 is updated to 1, and the understanding level probability is recalculated for all nodes other than 1 or 0 by the Bayesian network.
[次候補モデル選択部11(S11)]
次候補モデル選択部11は、各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを抽出する。具体的には、平均理解度確率が、中央値(=0.5)に最も近いものを次候補モデルとして抽出するものであってもよいし、更に標準偏差を用いて次候補モデルを抽出するものであってもよい。
[Next Candidate Model Selection Unit 11 (S11)]
The next candidate
図12は、本発明における次候補モデル選択部のフローチャートである。 FIG. 12 is a flowchart of the next candidate model selection unit in the present invention.
(S111)次候補モデル選択部11は、最初に、ユーザ毎に、各モデルについて複数のノードの理解度確率の平均値及び標準偏差を算出する。
(S111) The next candidate
図13は、ユーザ毎に、各モデルについて平均理解度確率及び標準偏差を算出した表である。学習レベル(学年区分)や学習カテゴリ(学習領域)のモデル毎に算出されている。 FIG. 13 is a table in which average comprehension probabilities and standard deviations are calculated for each model for each user. It is calculated for each model of learning level (grade classification) and learning category (learning area).
図14は、ユーザ毎に、各モデルについて平均理解度確率を表すグラフである。各モデルについて、平均理解度確率が所定閾値以上である場合、そのユーザは、そのモデルの学習内容については習熟していると判定できる。 FIG. 14 is a graph showing the average understanding probability for each model for each user. When the average understanding probability for each model is equal to or greater than a predetermined threshold, the user can determine that the learning content of the model is familiar.
尚、ユーザによって未履修のモデルは、分布把握の対象外とする。例えば中学2年生のユーザAは、中学3年生の学習内容を含むモデルm9を対象外とする。また、例えば小学6年生のユーザBは、中学生の学習内容を含むモデルm7,m8,m9を対象外とする。 Note that models that have not been taken by the user are not subject to distribution grasping. For example, the user A who is a second grader of junior high school excludes the model m9 including the learning content of the third grader of junior high school. In addition, for example, the user B who is a sixth grader does not include models m7, m8, and m9 including learning contents of junior high school students.
(S112)そして、次候補モデル選択部11は、平均理解度確率が、その中央値(=0.5)から第1の所定閾値の範囲内であり、且つ、標準偏差が第2の所定閾値(許容閾値)以上となるモデルを、次候補モデルとして抽出する。ここでは、モデル毎に、次候補となるモデルのフラグには、1をセットする。
(S112) Then, the next candidate
図12及び図13によれば、例えば、第1の所定閾値を0.1とし、第2の所定閾値を0.45としている。
この場合、ユーザAについては、次候補モデルとして、以下の4個のモデルが抽出される。
[平均理解度確率] [標準偏差]
モデルm7 0.44 0.48
モデルm8 0.41 0.53
モデルm10 0.55 0.60
According to FIGS. 12 and 13, for example, the first predetermined threshold is 0.1, and the second predetermined threshold is 0.45.
In this case, for user A, the following four models are extracted as the next candidate model.
[Average comprehension probability] [Standard deviation]
Model m7 0.44 0.48
Model m8 0.41 0.53
Model m10 0.55 0.60
図15は、ユーザ毎に、理解度確率の分散を表すグラフである。 FIG. 15 is a graph showing the variance of understanding probability for each user.
例えば、標準偏差の差σdiffは、σmax−σminで与えられる。
ユーザAの標準偏差の最大差:σAdiff_max=σAm6−σAm4
ユーザBの標準偏差の最大差:σBdiff_max=σBm6−σBm4
このとき、理解度確率に対する標準偏差の許容値をσconstとした場合、当該ユーザの理解度確率に対する標準偏差が許容値を超えているか否かについて、判定することができる。
標準偏差許容値は、学習レベル又は学習カテゴリのモデル毎に異なる値であってもよいし、同じ値を用いたものであってもよい。
For example, the standard deviation difference σdiff is given by σmax−σmin.
Maximum difference in standard deviation of user A: σAdiff_max = σAm6−σAm4
Maximum difference in standard deviation of user B: σBdiff_max = σBm6−σBm4
At this time, when the allowable value of the standard deviation for the understanding probability is σconst, it can be determined whether or not the standard deviation for the understanding probability of the user exceeds the allowable value.
The standard deviation allowable value may be different for each learning level or learning category model, or may be the same value.
(S113)次に、次候補モデル選択部11は、次候補モデルの数が、1個か複数かを判定する。次候補モデルが1個であれば、そのモデルを選択するだけでよい。
(S113) Next, the next candidate
(S114)次候補モデル選択部11は、複数の次候補モデルが選択された際に、当該次候補モデル毎に、平均情報量H(X)を算出する。
平均情報量H(X)は、ある事象の起こり易さや起こりにくさを指し示す指標であって、以下のように定義される。
H(X)=−plogp−(1-p)log(1-p)
(S114) When a plurality of next candidate models are selected, the next candidate
The average information amount H (X) is an index indicating the likelihood or difficulty of occurrence of a certain event, and is defined as follows.
H (X) =-plogp- (1-p) log (1-p)
図16は、発生確率と情報量との関係を表すグラフである。図16によれば、以下のような関係を有する。
事象が常に起きる場合(発生確率が0又は1)->平均情報量H(X)は最小となる
発生確率が2分の1である場合(発生確率が0.5)->平均情報量H(X)は最大となる
FIG. 16 is a graph showing the relationship between the occurrence probability and the information amount. According to FIG. 16, it has the following relationship.
When an event always occurs (occurrence probability is 0 or 1)-> average information amount H (X) is minimum When an occurrence probability is half (occurrence probability is 0.5)-> average information amount H (X) is the maximum
次候補モデル選択部11は、当該次候補モデルに含まれる全てのノードUの確率変数Xが確率分布Pに従う場合の平均情報量H(X)を、以下の式によって次候補モデル毎に算出する(例えば非特許文献6参照)。
H(X)=−Σx∈UP(X=x)logP(X=x)
The next candidate
H (X) = − Σx∈UP (X = x) logP (X = x)
(S115)そして、次候補モデル選択部11は、当該平均情報量H(X)が最も高いモデルを、次候補モデルとして選択する。
(S115) Then, the next candidate
尚、次候補モデル選択部11は、次候補モデル毎に、レベル、カテゴリを単位とす要素単位平均情報量と、その要素単位平均情報量の平均値とを算出する。
The next candidate
図17は、モデル毎における要素単位平均情報量と、要素単位平均情報量の平均値とを算出した表である。図17によれば、モデルm7、m8、m10の中から、最終的に、平均情報量の値が最大となるm8(理解度確率は0.529)が選択される。 FIG. 17 is a table in which the element unit average information amount and the average value of the element unit average information amount are calculated for each model. According to FIG. 17, from the models m7, m8, and m10, m8 (understanding probability is 0.529) with the maximum average information amount is finally selected.
以上、詳細に説明したように、本発明のユーザ適応型のテストプログラム、装置及び方法によれば、計算リソースを低減すると共に、学習レベル(カリキュラム)に限られず、ユーザにとって理解度が低い様々なカテゴリに基づく問題群の中から、次の問題を選択することができる。これによって、ユーザの理解度が低いカテゴリの中から次に出題すべき問題を選択することによって、結果として、ユーザの理解度を判定するための出題数自体を減少させることもできる。 As described above in detail, according to the user-adaptive test program, apparatus, and method of the present invention, it is possible to reduce the calculation resources and not only to the learning level (curriculum) but also to various understanding levels that are low for the user. The next question can be selected from the problem group based on the category. As a result, the number of questions for determining the user's comprehension level itself can be reduced by selecting the next question to be asked from the category having a low user comprehension level.
また、例えば小学1年生〜中学3年生まで例えば429ノードを1つの確率モデルとして構成した場合、条件付確率表(CPT)の要素数は、最大で1.39×10119(=2の429乗)個となる。これに対し、本発明によれば、学習レベル及び/又は学習カテゴリを基準とした複数のモデル(グループ)に区分することによって、ひとつのモデルを構成するノード数を例えば34〜75の範囲に縮小することができ、これによって、CPTの要素数は最大で、3.77×1022(=2の75乗)個とすることができる。 For example, when 429 nodes are configured as one probability model from first grade to third grade, the maximum number of elements in the conditional probability table (CPT) is 1.39 × 10 119 (= 2 to the 429th power). ) It becomes a piece. In contrast, according to the present invention, by dividing into a plurality of models (groups) based on the learning level and / or learning category, the number of nodes constituting one model is reduced to a range of 34 to 75, for example. Thus, the maximum number of CPT elements can be 3.77 × 10 22 (= 2 to the 75th power).
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.
1 テスト装置
10 学習モデル記憶部
11 次候補モデル選択部
12 問題提示部
13 解答判定部
14 理解度確率更新部
2 端末
DESCRIPTION OF
Claims (9)
問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定し、
複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、当該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積した学習モデル記憶手段と、
各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを選択する次候補モデル選択手段と、
前記次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する問題提示手段と、
出題された問題に対する解答の正答/誤答を判定する解答判定手段と、
ユーザ毎に、前記学習モデル記憶手段における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率を再計算する理解度確率更新手段と
してコンピュータを機能させることを特徴とするテストプログラム。 A user-adaptive test program for causing a computer mounted on the apparatus to function,
Specify the “node” that includes the probability of understanding, which is associated with the question and the answer,
A learning model storage unit that divides a plurality of nodes into a plurality of models (groups) based on different criteria, and stores a directed graph in which nodes are connected by arcs for each model,
A next candidate model selecting means for calculating an average understanding probability that is an average value of the understanding probabilities for each model, and selecting a next candidate model based on the average understanding probability;
In the next candidate model, a node associated with an unissued problem is selected, and a problem presenting means for presenting the problem,
Answer determination means for determining the correct / incorrect answer of the answer to the given question;
For each user, for each model in the learning model storage means, recalculate the comprehension probabilities at all other nodes to which the unanswered question is associated, based on the already answered question and the correct / incorrect answer of the answer. A test program for causing a computer to function as an understanding probability update means.
前記モデルの有向グラフは、学習順序関係に基づいてノード同士をアークで結んだものである
ようにコンピュータを機能させることを特徴とする請求項1に記載のテストプログラム。 The model is obtained by classifying a plurality of nodes based on a learning level and / or a learning category.
The test program according to claim 1, wherein the directed graph of the model causes a computer to function so that nodes are connected by arcs based on a learning order relationship.
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のテストプログラム。 The comprehension probability update means records the problem in the learning model storage means with an understanding probability of the node of 1 when the answer is correct and an understanding probability of the node of 0 when the answer is incorrect. The test program according to claim 1 or 2, wherein a computer is caused to function to recalculate the understanding probability.
ようにコンピュータを機能させることを特徴とする請求項1から3のいずれか1項に記載のテストプログラム。 4. The test program according to claim 1, wherein the comprehension probability update unit causes the computer to calculate the comprehension probability of the node according to Bayes' theorem. 5.
ユーザ毎に、各モデルについて複数のノードの理解度確率における標準偏差を更に算出し、
前記平均値が、理解度確率の中央値(=0.5)から第1の所定閾値の範囲内であり、且つ、前記標準偏差が第2の所定閾値以上となるモデルを、次候補モデルとして選択する
ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のテストプログラム。 The next candidate model selection means includes:
For each user, further calculate the standard deviation in understanding probabilities of multiple nodes for each model,
A model in which the average value is within the range of the first predetermined threshold value from the median value (= 0.5) of the understanding probability and the standard deviation is equal to or larger than the second predetermined threshold value is defined as a next candidate model. The test program according to claim 1, wherein the computer is caused to function so as to make a selection.
当該次候補モデルに含まれる全てのノードUの確率変数Xが確率分布Pに従う場合の平均情報量H(X)を、以下の式によって次候補モデル毎に算出し、
H(X)=−Σx∈UP(X=x)logP(X=x)
当該平均情報量H(X)が最も高いモデルを、次候補モデルとして選択する
ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載のテストプログラム。 The next candidate model selection means, when a plurality of next candidate models are selected,
The average information amount H (X) when the random variables X of all the nodes U included in the next candidate model follow the probability distribution P is calculated for each next candidate model by the following equation:
H (X) = − Σx∈UP (X = x) logP (X = x)
6. The test program according to claim 1, wherein the computer is caused to function so as to select a model having the highest average information amount H (X) as a next candidate model.
ようにコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載のテストプログラム。 The question presenting means presents a predetermined number or more of questions included in an unquestioned learning unit, and the answer determination means includes the correctness probability after the result of correct / incorrect answers to the predetermined number of questions. 7. The test program according to claim 1, wherein the computer is caused to function so that the updating unit and the next candidate model selection unit are executed.
問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定し、
複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積した学習モデル記憶手段と、
各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを選択する次候補モデル選択手段と、
前記次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する問題提示手段と、
出題された問題に対する解答の正答/誤答を判定する解答判定手段と、
ユーザ毎に、前記学習モデル記憶手段における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率を再計算する理解度確率更新手段と
を有することを特徴とする装置。 A device for performing user-adaptive tests,
Specify the “node” that includes the probability of understanding, which is associated with the question and the answer,
A learning model storage unit that divides a plurality of nodes into a plurality of models (groups) based on different criteria, and stores a directed graph in which the nodes are connected by arcs for each model,
A next candidate model selecting means for calculating an average understanding probability that is an average value of the understanding probabilities for each model, and selecting a next candidate model based on the average understanding probability;
In the next candidate model, a node associated with an unissued problem is selected, and a problem presenting means for presenting the problem,
Answer determination means for determining the correct / incorrect answer of the answer to the given question;
For each user, for each model in the learning model storage means, recalculate the comprehension probabilities at all other nodes to which the unanswered question is associated, based on the already answered question and the correct / incorrect answer of the answer. And an understanding degree probability updating means.
問題及び解答が対応付けられた、理解度確率を含む「ノード」を規定し、
前記装置は、複数のノードを、異なる基準に基づく複数のモデル(グループ)に区分し、該モデル毎に、ノード同士をアークで結んだ有向グラフを予め蓄積した学習モデル記憶部を有し、
前記装置は、
各モデルについて理解度確率の平均値となる平均理解度確率を算出し、当該平均理解度確率に基づいて次候補モデルを選択する第1のステップと、
前記次候補モデルの中で、未出の問題が対応付けられたノードを選択し、当該問題を提示する第2のステップと、
出題された問題に対する解答の正答/誤答を判定する第3のステップと、
ユーザ毎に、前記学習モデル記憶手段における各モデルについて、既出の問題とその解答の正答/誤答に基づいて、未出の問題が対応付けられた他の全てのノードにおける理解度確率を再計算する第4のステップと
を実行することを特徴とする装置のテスト方法。 A device testing method for performing user-adaptive testing,
Specify the “node” that includes the probability of understanding, which is associated with the question and the answer,
The apparatus has a learning model storage unit that divides a plurality of nodes into a plurality of models (groups) based on different criteria, and stores a directed graph in which the nodes are connected by arcs in advance for each model,
The device is
A first step of calculating an average comprehension probability that is an average value of the comprehension probabilities for each model, and selecting a next candidate model based on the average comprehension probabilities;
A second step of selecting a node associated with an unissued problem in the next candidate model and presenting the problem;
A third step of determining the correct / incorrect answer of the answer to the given question;
For each user, for each model in the learning model storage means, recalculate the comprehension probabilities at all other nodes to which the unanswered question is associated, based on the already answered question and the correct / incorrect answer of the answer. And a fourth step of testing the apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015228366A JP6498106B2 (en) | 2015-11-24 | 2015-11-24 | User-adaptive test program, apparatus and method for selecting model of problem group according to understanding probability |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015228366A JP6498106B2 (en) | 2015-11-24 | 2015-11-24 | User-adaptive test program, apparatus and method for selecting model of problem group according to understanding probability |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017097139A JP2017097139A (en) | 2017-06-01 |
| JP6498106B2 true JP6498106B2 (en) | 2019-04-10 |
Family
ID=58803720
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015228366A Active JP6498106B2 (en) | 2015-11-24 | 2015-11-24 | User-adaptive test program, apparatus and method for selecting model of problem group according to understanding probability |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6498106B2 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB201803270D0 (en) * | 2018-02-28 | 2018-04-11 | Cambioscience Ltd | Machine learning systems and methods of operating machine learning systems |
| US20200258412A1 (en) * | 2019-02-08 | 2020-08-13 | Pearson Education, Inc. | Systems and methods for predictive modelling of digital assessments with multi-model adaptive learning engine |
| JP7618972B2 (en) * | 2020-07-08 | 2025-01-22 | 大日本印刷株式会社 | Learning element list creation device, learning element list creation method, and program |
| JP7393827B1 (en) | 2022-11-18 | 2023-12-07 | 株式会社シー・ビー・ティ・ソリューションズ | Question optimization system, question optimization method, and question optimization program |
| JP7509951B1 (en) | 2023-04-24 | 2024-07-02 | 株式会社Z会 | Level determination device, level determination method, and program |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5059127A (en) * | 1989-10-26 | 1991-10-22 | Educational Testing Service | Computerized mastery testing system, a computer administered variable length sequential testing system for making pass/fail decisions |
| US5779486A (en) * | 1996-03-19 | 1998-07-14 | Ho; Chi Fai | Methods and apparatus to assess and enhance a student's understanding in a subject |
| JPH11143347A (en) * | 1997-11-04 | 1999-05-28 | Nec Corp | Making question device |
| JP2003066822A (en) * | 2001-08-28 | 2003-03-05 | Nippon Telegr & Teleph Corp <Ntt> | Learning weakness determination method and apparatus, learning weakness determination program, and storage medium storing learning weakness determination program |
| JP2003228278A (en) * | 2002-02-05 | 2003-08-15 | Oki Electric Ind Co Ltd | Level judging device, remote education device, and remote education system |
| JP2004170842A (en) * | 2002-11-22 | 2004-06-17 | Maomi Ueno | Degree of comprehension judgement system for judging degree of comprehension of learner and participant based on test result |
| JP2005164965A (en) * | 2003-12-02 | 2005-06-23 | Nec Fielding Ltd | Method, system, server and program for evaluating level of understanding |
| JP2005215023A (en) * | 2004-01-27 | 2005-08-11 | Recruit Management Solutions Co Ltd | Test implementation system and test implementation method |
| WO2006093065A1 (en) * | 2005-03-02 | 2006-09-08 | The Japan Institute For Educational Measurement, Inc. | Learning level judging device and learning level judging program |
| JP4977723B2 (en) * | 2009-01-28 | 2012-07-18 | 株式会社日立製作所 | e-learning system and learning support server |
| US9189968B2 (en) * | 2013-07-01 | 2015-11-17 | Pearson Education, Inc. | Network-probability recommendation system |
-
2015
- 2015-11-24 JP JP2015228366A patent/JP6498106B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2017097139A (en) | 2017-06-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7474517B2 (en) | Machine learning method, device and computer program for providing personalized educational content based on learning efficiency | |
| US11138899B2 (en) | Cheating detection in remote assessment environments | |
| KR102096301B1 (en) | Method, apparatus and computer program for operating a machine learning framework with active learning techniqe | |
| Esparza et al. | A sentiment analysis model to analyze students reviews of teacher performance using support vector machines | |
| JP6498106B2 (en) | User-adaptive test program, apparatus and method for selecting model of problem group according to understanding probability | |
| Deshwal et al. | Online learning experience scale validation and its impact on learners’ satisfaction | |
| KR102075936B1 (en) | Method, apparatus and computer program for operating a machine learning for providing personalized educational contents based on learning efficiency | |
| EP2956919A2 (en) | Language learning systems and methods | |
| Somasundaran et al. | Evaluating argumentative and narrative essays using graphs | |
| Conati | Bayesian student modeling | |
| Slater et al. | Degree of error in Bayesian knowledge tracing estimates from differences in sample sizes | |
| KR20220101584A (en) | Learning contents evaluation apparatus, system, and operation method thereof for evaluating a problem based on the predicted correct answer probability for the added problem contents without solving experience | |
| He-Yueya et al. | Psychometric alignment: Capturing human knowledge distributions via language models | |
| US10832584B2 (en) | Personalized tutoring with automatic matching of content-modality and learner-preferences | |
| Dorça et al. | A new approach to discover students learning styles in adaptive educational systems | |
| JP6566468B2 (en) | User-adaptive test program, apparatus and method for identifying answers based on ambiguous understanding and minor misunderstandings | |
| Sreevidhya et al. | Short descriptive answer evaluation using word-embedding techniques | |
| Baloh et al. | A quality evaluation framework for mobile learning applications | |
| Wei et al. | Enhancing explainability of knowledge learning paths: causal knowledge networks | |
| De Vrindt et al. | Text mining to alleviate the cold-start problem of adaptive comparative judgments | |
| Milne et al. | Development of a model of user attributes and its implementation within an adaptive tutoring system | |
| Goldin et al. | Learner differences and hint content | |
| JP6674708B2 (en) | User-adaptive test program, apparatus and method with mixed questions based on different criteria | |
| JP2016189137A (en) | Learning material analysis program, apparatus and method for identifying parent-child relationship between learning units | |
| Mouenis et al. | Learner modeling based on Bayesian networks |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190226 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190311 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190312 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6498106 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |