JP2012018450A - Neural network system, construction method of neural network system and control program of neural network system - Google Patents
Neural network system, construction method of neural network system and control program of neural network system Download PDFInfo
- Publication number
- JP2012018450A JP2012018450A JP2010153765A JP2010153765A JP2012018450A JP 2012018450 A JP2012018450 A JP 2012018450A JP 2010153765 A JP2010153765 A JP 2010153765A JP 2010153765 A JP2010153765 A JP 2010153765A JP 2012018450 A JP2012018450 A JP 2012018450A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- neural networks
- learning
- neural
- network system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】
病歴あるいは健診の情報から疾患を推定し状況の変化を予測する等の推定処理を行うニューラルネットワークを用いたエキスパートシステムにおいて、推定結果と共に推定の確度を出力することが可能なニューラルネットワークシステムを提供する。
【解決手段】
入力層のノード数、中間層の数、中間層を構成するノードの数、各重み係数の初期値、学習の方法(ノード間の伝搬関数)等の構成要素が異なるニューラルネットワークを複数生成し、それらに同じ学習処理を行う。上記の複数のニューラルネットワークにより未知のパターンの推論を行い、推論のバラツキから判定結果の確実さを数値で出力する
【選択図】 図2【Task】
Providing a neural network system that can output the accuracy of estimation along with the estimation results in an expert system that uses a neural network that performs estimation processing such as estimating disease from the history or medical examination information and predicting changes in the situation. To do.
[Solution]
Generate multiple neural networks with different components such as the number of nodes in the input layer, the number of intermediate layers, the number of nodes constituting the intermediate layer, the initial value of each weighting factor, and the learning method (propagation function between nodes) The same learning process is performed on them. Inferring unknown patterns with the above-mentioned multiple neural networks, and outputting the certainty of the judgment result numerically from the variation in the inference [selection figure]
Description
本発明は、複数のニューラルネットワークからなるニューラルネットワークシステムに関するものであり、例えば病歴情報、健診情報から疾患を推定し状況の変化を予測するニューラルネットワークを用いたニューラルネットワークシステムに関するものであり、ニューラルネットワークシステムとその構築方法及び制御プログラムを提供するものである。 The present invention relates to a neural network system including a plurality of neural networks, for example, a neural network system using a neural network that estimates a disease from medical history information and medical examination information and predicts a change in the situation, and A network system, its construction method, and a control program are provided.
人の疾患やプラントの故障等の対応において、外に現れた現象から原因を推定し、今後の推移を予測する手段としてニューラルネットワークの技術が利用されている。ニューラルネットワークは複数のニューロン回路により構成される。ニューロン回路は図7(a)に例示されるように、多入力(X1,X2,・・・・・、Xk)と1出力(y)の回路である。多入力(X1、X2、・・・・・、Xk)の各々には重み係数113(W 1,W 2,・W k)が対応づけられており、重み演算部112により、入力(Xi)と重み係数(W i)の積が求められる。各演算部112の演算結果は加算回路114により加算され、シグモイド関数、ヘビサイド関数等の閾値手段115により正規化され、出力117(y)となる。
図7(b)はニューラルネットワークの一例であり、図7(a)に示されるニューロン回路を複数組み合わせて構成されている。ニューラルネットワークは、診断データ等の測定データの組[X1、X2、・・・・・、Xp]151が入力される入力層152と、疾患名等に対応する1つ以上の出力155を出力する出力層154と、入力層152と出力層154の間に位置する少なくとも1つの中間層153から構成されている。
Neural network technology is used as a means for estimating causes from outside phenomena and predicting future transition in dealing with human diseases and plant failures. A neural network is composed of a plurality of neuron circuits. The neuron circuit is a circuit having multiple inputs (X 1 , X 2 ,..., X k ) and one output (y) as illustrated in FIG. Each of the multiple inputs (X 1 , X 2 ,..., X k ) is associated with a weight coefficient 113 ( W 1 , W 2 , .W k ). The product of (X i ) and the weighting factor ( W i ) is obtained. The calculation results of the
FIG. 7B is an example of a neural network, and is configured by combining a plurality of neuron circuits shown in FIG. The neural network includes an
入力層152のi番目のノード(i)は入力(Xi)を中間層153のノードに分配する。中間層153と出力層154を構成するノードは図7(a)に示されるニューロン回路であり、前段のノードからの信号を前述の動作に従って処理し後段のノードに伝達、あるいは出力端子から出力する。
ニューラルネットワークで診断を行うには、例えば各症状あるいは健診の項目(発熱、咳、頭痛、血圧等)について、それらの項目に対応したデータ列を入力パターン[X1、X2、・・・・・、Xp]として、入力層152に入力する。また、出力層154の各ノードには推定すべき原因(病名等)を割り当てる。例えば出力1には「風邪」、出力2には「食中毒」、等を割り当てる。この場合、「風邪」の症状を表す入力パターンを入力部151から入力した時、「風邪」が割り当てられている第1のノードのみから「1」を出力し、他の原因(病名)が割り当てられているノードからは「0」を出力するように、ニューラルネットワークを学習する。
The i-th node (i) of the
In order to make a diagnosis using a neural network, for example, for each symptom or health check item (fever, cough, headache, blood pressure, etc.), a data string corresponding to the item is input pattern [X 1 , X 2 ,. .., X p ] are input to the
図8はニューラルネットワークの学習の概要を示す図である。同図では出力層のノードは1つのみであり、例えば、入力パターンが「風邪」と認識した時はYESを意味する「1」を、「風邪」と認識しなかった時はNOを意味する「0」を出力するように学習する。「風邪」と認識さる症状等のパターンと、「風邪」と認識させない症状等のパターンを学習パターン161として多数用意する。また、各学習パターンに正解の出力、即ち「風邪」又は「風邪ではない」を表す出力「AZ(「1」又は「0」)」を正解データ162として付加する。学習を開始する前のニューロン回路の各重み係数は所定の初期値、あるいはランダムな値に設定される。学習パターン161の因子[A1]をニューラルネットワークの入力部X1に、因子[A2]を入力部X2と、1つの学習パターン161を構成する各因子をニューラルネットワークの対応する入力部に入力する。入力された学習パターン161の各要素は中間層152と出力層154のニューロン回路により順次演算され、出力端155に出力信号[Z]を出力する。
FIG. 8 is a diagram showing an outline of neural network learning. In the figure, there is only one node in the output layer. For example, when the input pattern is recognized as “cold”, “1” means YES, and when it is not recognized as “cold”, it means NO. Learning to output “0”. A large number of patterns such as symptoms recognized as “cold” and patterns such as symptoms not recognized as “cold” are prepared as
比較回路163は出力端155に出力された[Z]と学習パターン161に付加されている正解データ[AZ]を比較する。重み変更手段164は出力[Z]と正解データ[AZ]が一致するように、予め定められた方法に従って各ニューロン回路の重み係数の値を変更する。準備した各学習パターンに対して上記の学習動作を行い、全ての学習パターンに対して正しい値を出力する重み係数を決定して学習を終了する。学習が終了したニューラルネットワークに未知の症状のパターンが入力されると、当該症状のパターンの各因子の値を各ニューロン回路の重み係数に従って演算し、「風邪」に該当するか否かを「YES」または「NO」の2値データとして出力層154から出力する。ニューラルネットワークとその学習に関する公知文献には以下のものが存在する。
The
図7及び図8に示される従来のニューラルネットワーク、あるいは前記の先行技術文献等に記載されるニューラルネットワークは、入力された測定値等の入力パターンが特定の事象に該当するか否かを示すデータを出力するものである。例えば、入力された健診データから数年後に糖尿病を発症するか否かを予測するように学習されたるニューラルネットワークは、判定対象の健診データに対して「糖尿病になる」「糖尿病にならない」の予測結果を出力する。
しかし、特定の疾患が発症する危険度は連続的に変化すると考えられる。また、疾患の予防策を作成する場合、現状のままでは発症する危険性は非常に大きいのか、あるいは危険性は小さいのか等、危険性の度合いを考慮して作成される。しかし、前述したようにニューラルネットワークは「発症する」「発症しない」の2値を出力するのみであり、診断あるいは対策の作成には限定的な意義を持つのみであった。
本発明は、例えば糖尿病の発症を予測する場合、「糖尿病になる可能性は70パーセント」「糖尿病になる可能性は30パーセント」等、発症の可能性を数値により提示することが可能なニューラルネットワークを提供するものである。
The conventional neural network shown in FIG. 7 and FIG. 8 or the neural network described in the prior art document etc. is data indicating whether or not an input pattern such as an input measurement value corresponds to a specific event. Is output. For example, a neural network that has been learned to predict whether or not diabetes will develop in the next few years from input medical checkup data is “becoming diabetic” or “not diabetic” for the medical checkup data to be determined. The prediction result of is output.
However, the risk of developing a specific disease is thought to change continuously. In addition, when preparing a preventive measure for a disease, it is created taking into consideration the degree of risk, such as whether the risk of developing the disease is very high or the risk is low. However, as described above, the neural network only outputs two values, “onset” and “not onset”, and has only a limited significance in creating a diagnosis or countermeasure.
In the present invention, for example, when predicting the onset of diabetes, a neural network capable of presenting the possibility of onset by numerical values, such as “the possibility of becoming diabetic is 70%” and “the possibility of becoming diabetic is 30%”. Is to provide.
ニューラルネットワークの構成は、入力層のノード数、中間層の数、中間層を構成するノードの数、各重み係数の初期値、学習の方法(ノード間の伝搬関数)等の要素により決まり、構成要素の差異により多様な構成のニューラルネットワークを生成することが可能である。構成要素が異なるニューラルネットワークであっても、それらに同一の学習を行うことにより、多くの場合、未知のパターンに対して同一の判定結果を出力するニューラルネットワークとすることが可能である。しかし、未知のパターンが「YES」と判定されるパターン領域と「NO」と判定されるパターン領域の境界近傍に位置すると、構成要素の異なるニューラルネットワークが異なる判定結果を出力する場合がある。本発明はニューラルネットワークの上記特性を利用することにより、判定結果の確実さを数値で出力することを可能とするものである。 The configuration of the neural network is determined by factors such as the number of nodes in the input layer, the number of intermediate layers, the number of nodes constituting the intermediate layer, the initial value of each weighting factor, and the learning method (propagation function between nodes). It is possible to generate a neural network having various configurations depending on the difference of elements. Even in the case of neural networks having different constituent elements, it is often possible to provide a neural network that outputs the same determination result for an unknown pattern by performing the same learning on them. However, when an unknown pattern is located in the vicinity of the boundary between the pattern area determined as “YES” and the pattern area determined as “NO”, different neural networks with different components may output different determination results. The present invention makes it possible to output the certainty of the determination result as a numerical value by utilizing the above characteristics of the neural network.
本発明は、同一の学習パターンにより学習した構成要素が異なる複数のニューラルネットワークを用意し、この複数のニューラルネットワークに判定すべきパターンを認識させ、判定結果の「YES」と「NO」の割合により判定結果の確実さを数値で出力する構成である。本発明を1つの疾患の判定に用いた場合、「当該疾患の可能性は70パーセント」等の出力が可能となる。また、出力層のノードを複数とし、各ノードに異なる疾患を対応づけて学習させた場合、各疾患の可能性を数値化し、可能性の高い順に整列して出力する等の構成が可能となる。 The present invention prepares a plurality of neural networks having different components learned by the same learning pattern, causes the plurality of neural networks to recognize a pattern to be determined, and determines the ratio of “YES” and “NO” as a determination result. In this configuration, the certainty of the determination result is output as a numerical value. When the present invention is used to determine one disease, an output such as “the probability of the disease is 70%” becomes possible. In addition, when there are a plurality of nodes in the output layer and each node is associated with a different disease and learned, the possibility of each disease can be digitized and output in the order of the highest possibility. .
図1は本発明に係るニューラルネットワークシステムを構成するニューラルネットワークの概要を示す図である。本発明に係るニューラルネットワークの中間層は1層に限られるものではないが、説明の簡素化のため以下では1層で説明する。図1に示されるニューラルネットワークは、1つの入力層152と、1つの中間層153と、1つの出力層154からなっている。p個の因子からなるパターン[X1、X2、・・、Xi、・・、Xp]の各項が入力端151から入力層の各ノードに入力される。入力層152の各ノードは入力データを中間層153の各ノードに分配する。入力層152の各ノードと中間層153の各ノード)を結ぶ情報伝達路には重み演算部が存在する。例えば、入力層152のノード(i)と中間層153のノード(j)の間には重み演算部(Wij)が設けられており、入力層152のノード(i)からのデータ「Xi」に重み演算部(Wij)が有する重み係数「W ij」を乗じてノード(j)に伝達する。
FIG. 1 is a diagram showing an outline of a neural network constituting a neural network system according to the present invention. The intermediate layer of the neural network according to the present invention is not limited to a single layer, but will be described below as a single layer for the sake of simplicity. The neural network shown in FIG. 1 includes one
中力層153のノード(j)は重み演算部(W1j)、・・、(Wpj)から伝達された情報を加算し、所定の方法に従って正規化した後、出力層154のノード(z)に伝達する。中力層153のノード(j)と出力層154のノード(z)を結ぶ情報伝達路には重み演算部(Wjz)が設けられており、中力層153のノード(j)からのデータに重み演算部(Wjz)が有する重み係数「W jz」を乗じて出力層154のノード(z)に伝達する。ノード(z)は、重み演算部(W1z)、・・、(Wmz)から伝達された情報を加算し、所定の方法に従って正規化した後、認識結果「Z」として出力する。
学習段階では、認識結果「Z」はフィードバック手段162に入力されて図8に示される正解「AZ」と比較され、各重み演算部が有する重み係数の修正に利用される。
The node (j) of the
In the learning stage, the recognition result “Z” is input to the feedback means 162 and compared with the correct answer “A Z ” shown in FIG. 8, and is used to correct the weighting factor of each weight calculator.
ニューラルネットワークは、入力パターンのp個の因子[X1、X2、・・、Xi、・・、Xp]を変数、出力[Z]を計算値とする関数で表される。また、ニューラルネットワークの学習はp個の変数[X1、X2、・・、Xi、・・、Xp]から所期の値[Z]を出力する関数のパラメータ(定数)を選定する処理と言える。従って、コンピュータプログラムによりニューラルネットワークの機能を実現することにより、異なる形態のニューラルネットワークを任意の数生成することが可能であり、また、それらを用いた推定処理を並列的に実行することも可能である。 The neural network is represented by a function having p factors [X 1 , X 2 ,..., X i ,..., X p ] of the input pattern as variables and the output [Z] as a calculated value. In the neural network learning, a parameter (constant) of a function that outputs an intended value [Z] is selected from p variables [X 1 , X 2 ,..., X i ,. It can be said processing. Therefore, it is possible to generate an arbitrary number of different types of neural networks by realizing the function of the neural network by a computer program, and it is also possible to execute estimation processing using them in parallel. is there.
図1のニューラルネットワークの形態制御手段170はニューラルネットワークのノード数、学習のためのフィードバックの方法を選択する制御部であり、以下の機能を有している。
1.入力層152のノード数の選択
2.中間層153のノード数の選択
3.フィードバックの方法(伝搬関数)の選択
4.リンク荷重の選択
1 is a control unit that selects the number of nodes of the neural network and a feedback method for learning, and has the following functions.
1. 1. Selection of the number of nodes in the
[入力層152のノード数の選択]
入力パターンを構成する複数(図1ではX1〜Xpのp個)の因子には、推定に必須の因子と、利用する利用しないを任意に選択可能な因子が存在する。形態制御手段170は選択可能な因子を利用するか利用しないかを決定し、必須の因子と選択した因子に対応する入力ノードで入力層152を決定する。当該機能により、入力層152のノード数と使用する因子が異なる複数の形態のニューラルネットワークを生成することが可能となる。
[Selection of the number of nodes in the input layer 152]
As a plurality of factors ( p in X 1 to X p in FIG. 1) constituting the input pattern, there are a factor that is essential for estimation and a factor that can be arbitrarily selected not to use. The form control means 170 determines whether to use a selectable factor or not, and determines the
[中間層153のノード数の選択]
ニューラルネットワークの中間層の数と各中間層に属するノード数は任意に選択することが可能である。本実施態様では各中間層に属するノード数を0〜25の間でランダムに選択する構成となっている。ノード数が決定されると、中間層153の各ノード(j)と入力層152の各ノード(i)の間に信号路と重み演算部(Wij)を設定する。また、重み演算部(Wij)の重み係数(W ij)の初期値を設定する。
中間層153の各ノード(j)と出力層154のノード(z)の間に信号路と重み演算部(Wjz)を設定すると共に、当該重み演算部の重み係数(W jz)の初期値を設定する。重み係数(W ij)と(W jz)の初期値はランダムに設定される。中間層のノード数と重み係数の初期値はランダムに設定されるため、構成が異なる多数のニューラルネットワークを容易に生成することが可能である。
[Selection of the number of nodes in the intermediate layer 153]
The number of intermediate layers of the neural network and the number of nodes belonging to each intermediate layer can be arbitrarily selected. In this embodiment, the number of nodes belonging to each intermediate layer is randomly selected from 0 to 25. When the number of nodes is determined, a signal path and a weight calculation unit (W ij ) are set between each node (j) of the
A signal path and a weight calculation unit (W jz ) are set between each node (j) of the
[フィードバック方法(伝搬関数)の選択]
ニューラルネットワークのフィードバックの形態、即ち、学習方法には、線形関数、動径関数等、多くの方法が知られている。本実施例では、線形関数、動径関数、一般回帰、誤差逆伝播によるフィードバック処理手段(プログラム)を設け、ニューラルネットワークを生成する際、上記フィードバック処理手段から一つの処理手段をランダムに選択し、フィードバック手段162を構成する。
[Select feedback method (propagation function)]
As a feedback form of a neural network, that is, a learning method, many methods such as a linear function and a radial function are known. In this embodiment, a linear function, radial function, general regression, feedback processing means (program) by error back propagation is provided, and when generating a neural network, one processing means is randomly selected from the feedback processing means, The feedback means 162 is configured.
[リンク荷重の選択]
リンク荷重の決定とは上記の伝播関数のパラメータを決定することであり、その決定方法には多くの数学的手法がある。本実施例では、バックプロパゲーション(誤差逆伝搬法)、共役勾配降下法、K-meansアルゴリズム(中心の割り当て)、最近隣法、擬似逆行行列(線形最小2乗最適化)からランダムに選択した方法に基づいて、上記伝播関数のパラメータを決定する構成となっている。
[Select link load]
The determination of the link load is to determine the parameters of the above-mentioned propagation function, and there are many mathematical methods for the determination method. In the present embodiment, random selection was made from backpropagation (error back propagation method), conjugate gradient descent method, K-means algorithm (center assignment), nearest neighbor method, and pseudo inverse matrix (linear least square optimization). Based on the method, the parameters of the propagation function are determined.
構成が異なるニューラルネットワークであっても、それらを同一の学習パターンを用いて学習することにより、同じ推定動作を行うニューラルネットワークとすることが可能である。同じ学習が行われた異なる構成のニューラルネットワークに、「YES」または「NO」と推定される典型的なパターンと類似度が高い未知のパターンを入力すると、多くのニューラルネットワークは同じ推定結果を出力する。
しかし、未知のパターンが上記の典型的なパターンの何れとも大きく異なっている、即ち、未知のパターンが「YES」または「NO」と推定されるパターンの領域の境界近傍に位置すると、ニューラルネットワークが異なる推定結果を出力する場合がある。全ての推定結果に対する「YES」の割合(または「NO」の割合)は推定結果の確からしさを表している。例えば、糖尿病の発症を予測するように学習された複数のニューラルネットワークの70パーセントが「糖尿病になる」と予測し、30パーセントが「糖尿病にならない」と予測した場合、「糖尿病になる可能性は70パーセント」となる。
本発明は、構成が異なる複数のニューラルネットワークを用意して同一の学習を行い、学習が完了した複数のニューラルネットワークにより未知のデータの推定を行う。推定結果の「YES」または「NO」の割合から、推定結果の確からしさを数値化して出力するものである。
Even if the neural networks have different configurations, a neural network that performs the same estimation operation can be obtained by learning them using the same learning pattern. When an unknown pattern with a high similarity to a typical pattern estimated to be "YES" or "NO" is input to a neural network with a different configuration that has undergone the same learning, many neural networks output the same estimation result To do.
However, if the unknown pattern is significantly different from any of the above typical patterns, that is, if the unknown pattern is located near the boundary of the region of the pattern that is estimated to be “YES” or “NO”, the neural network Different estimation results may be output. The ratio of “YES” (or the ratio of “NO”) to all estimation results represents the likelihood of the estimation results. For example, if 70 percent of multiple neural networks that are trained to predict the onset of diabetes predict that they will “become diabetic” and 30 percent predict that they will not be diabetic, 70 percent ".
In the present invention, a plurality of neural networks having different configurations are prepared and the same learning is performed, and unknown data is estimated by the plurality of neural networks that have been learned. From the ratio of “YES” or “NO” in the estimation result, the probability of the estimation result is digitized and output.
図2は本発明に係るニューラルネットワークシステムの構築過程と推定過程の一例を示す図である。本実施態様は構成が異なるニューラルネットワークをM個(例えば、十数万個)生成して同一の学習パターンにより同一の学習を行う。学習が終了したM個のニューラルネットワークに複数の検証パターンの判定を行わせて各ニューラルネットワークの正解率を求め、推定の精度が高いニューラルネットワークをN個(例えば、百個)選択する構成となっている。 FIG. 2 is a diagram showing an example of a construction process and an estimation process of the neural network system according to the present invention. In the present embodiment, M (for example, several ten thousand) neural networks having different configurations are generated, and the same learning is performed using the same learning pattern. The M neural networks that have finished learning are subjected to determination of a plurality of verification patterns, the accuracy rate of each neural network is obtained, and N (for example, 100) neural networks with high estimation accuracy are selected. ing.
図2のニューラルネットワーク生成部401は、入力層のノード数、中間層のノード数、フィードバックの方法(伝搬関数)、リンク荷重の選択方法の全部、あるいは一部をランダムに変更して構成が異なるニューラルネットワークをM個生成する。生成された各ニューラルネットワークを規定するデータはデータブロックとし、ニューラルネットワーク記憶部402に記憶される。
学習パターン記憶部403にはニューラルネットワークの学習に使用する学習パターンとその正解データの対が複数、例えば200対記憶されている。6年後のメタボリックシンドロームの発症を予測する場合、健康診断において収集された200人の受診者の、年齢、性別、Body mass index、収縮期血圧(SBP)、拡張期血圧(DBP)、血中グルコース、中性脂肪、HDLコレステロール、LDLコレステロール、AST値、ALT値、HMW-adiponectin、total adiponectin、glycated albumin、総コレステロール、遊離脂肪酸、インシュリン、HOMA-IR、喫煙の有無等に関するデータと、各受診者が6年後の健康診断においてメタボリックシンドロームと診断されたか否かを示すデータが対にして記憶される。
The neural
The learning
学習部404は学習パターン記憶部403に記憶された学習パターンと正解データの対を用いて、ニューラルネットワーク記憶部402に記憶されているM個のニューラルネットワークの学習を行う。学習が完了したニューラルネットワークは学習済みニューラルネットワーク記憶部405に記憶される。
図3はニューラルネットワークをM個生成する処理421の後に実行される、学習パターンによりM個のニューラルネットワークを学習する処理の概念図である。ステップ421で、構成が異なるニューラルネットワークをM個(432−1〜432−M)生成し、ニューラルネットワーク記憶部402に記憶する。また、同記憶部402にはニューラルネットワーク432−1ないし432−M対応に、フィードバックの方法とリンク荷重の選択方法に関する情報が記憶される。
ステップ422で、学習部404はニューラルネットワーク記憶部402に記憶されているニューラルネットワーク432−1ないし432−Mの学習を行う。
学習パターン記憶部403から読み出された学習パターン430はニューラルネットワーク432−1ないし432−Mに入力される。学習パターン430から各ニューラルネットワークが推定した出力は、比較部433−1ないし433−Mにより、同じく学習パターン記憶部403から読み出された正解431と比較される。比較結果はフィードバック434−1ないし434−Mを介して各ニューラルネットワークに帰還され、重み係数の修正に使用される。重み係数の修正はニューラルネットワーク432−1ないし432−M対応にニューラルネットワーク記憶部402に記憶されているフィードバックの方法とリンク荷重の選択方法に関する情報に基づいて行われる。
上記動作はニューラルネットワーク432−1ないし432−Mの全ての学習が全て終了するまで繰り返される。学習が終了したニューラルネットワーク432−1ないし432−Mのデータは学習済みニューラルネットワーク記憶部405に記憶される。
The
FIG. 3 is a conceptual diagram of a process of learning M neural networks using a learning pattern, which is executed after the
In
The
The above operation is repeated until all learning of the neural networks 432-1 to 432-M is completed. The data of the neural networks 432-1 to 432-M for which learning has been completed is stored in the learned neural
図2の検証パターン記憶部406には、検証パターンと正解データの対が記憶されている。検証パターンは学習パターンと同じ因子から構成されており、例えば、健康診断等で収集されたデータの一部を学習パターンとし、残りを検証パターンとすることにより作成可能である。検証部407は、学習済みニューラルネットワーク記憶部405に記憶されているニューラルネットワークの各々に検証パターンを入力し、その出力を正解データと比較し正解率を検証結果記憶部407に記憶する。
選択部408は検証結果記憶部407に記憶されているM個のニューラルネットワークの正解率を読み出し、正解率の高いN個を選択して選択ニューラルネットワーク記憶部409に記憶する。
The verification
The
図4は検証部407が実行する各ニューラルネットワークの正解率を求める処理の概念図である。
ステップ441で、検証部407は検証パターン記憶部406から検証パターン450を読み出し、学習済みニューラルネットワーク記憶部405に記憶されているニューラルネットワーク432−1ないし432−Mに入力する。各ニューラルネットワークの出力は、比較部453−1ないし453−Mにより、検証パターン記憶部405から読み出された正解451と比較される。比較結果は正解/不正解のデータとして正解率管理手段454−1ないし454−Mに記憶される。全ての検証パターンの検証が終了すると、正解率管理手段454−1ないし454−Mは記憶された正解/不正解のデータから正解率を計算して記憶し、ステップ441を終了する。
ステップ442で、図2の選択部408は正解率管理手段454−1ないし454−Mに記憶されている正解率を検証し、正解率が高いニューラルネットワークをN個、例えば100個選択し選択ニューラルネットワーク記憶部409に記憶する。当該処理が終了することにより、本発明に係るニューラルネットワークの生成は終了する。
FIG. 4 is a conceptual diagram of processing for obtaining the correct answer rate of each neural network executed by the
In
In
図2の認識部412は、コンピュータのキーボート、あるいはデータ記憶装置等の外部装置から読み取られた判定すべきデータ410を、判定パターン入力部411を介して受信し、選択ニューラルネットワーク記憶部406に記憶されているN個のニューラルネットワークに入力する。確度算出部413はN個のニューラルネットワークが出力したN個の判定結果を受け取り、判定結果が「YES」(または「NO」)の割合を算出して出力する。
図5は認識部412と確度算出部413が実行する判定パターンに対する認識の確度を求める処理の概念図である。
ステップ461で、認識部412は判定パターン入力部411を介して受信した判定パターン470を選択ニューラルネットワーク記憶部409に記憶されているニューラルネットワーク471−1ないし471−Nの各々に入力し、各判定結果を確度算出部413に送信する。
ステップ462で、確度算出部413は「YES」(または「NO」)の判定結果の割合を当該判定の確度473として出力する。
The
FIG. 5 is a conceptual diagram of processing for obtaining the recognition accuracy for the determination pattern executed by the
In
In
本発明は内部の構成は異なるが、同一の学習パターンにより学習された複数のニューラルネットワークにより未知のパターンの原因等を推定し、推定結果と共にその推定の確からしさを数値化して出力することを可能とするものである。
図1ないし図5に示される実施態様は、出力層のノードは1つであり、1つの事象、例えば「糖尿病になる/ならない」を推定する構成である。しかし、図7(b)に示されるように、出力層のノードを複数とし、各ノードに異なる事象を割り当てる構成も可能である。例えば、出力層のノード1には疾患A、ノード2には疾患B・・・・を割り当てることにより、1つの判定パターンから、疾患Aの可能性はXパーセント、疾患Bの可能性はYパーセント・・・等、複数の推定結果を同時に得ることが可能となる。
Although the present invention is different in internal configuration, it is possible to estimate the cause of an unknown pattern by a plurality of neural networks learned by the same learning pattern, and to quantify and output the probability of the estimation together with the estimation result It is what.
The embodiment shown in FIG. 1 to FIG. 5 has a configuration in which there is one node in the output layer, and one event, for example, “becoming diabetic or not” is estimated. However, as shown in FIG. 7B, a configuration in which a plurality of nodes in the output layer are provided and different events are assigned to each node is also possible. For example, by assigning the disease A to the
本発明に係るニューラルネットワークシステムは1つの独立したコンピュータシステムとして構成することも、LANあるいはインターネットにより結合されたネットワーク構成とすることも可能である。図6は本発明に係るニューラルネットワークシステムを構成する装置をLANにより接続した例である。1台又は複数台のパーソナルコンピュータ301(図6には1台のみが図示されている)と、サーバ310と、検査装置320等他の装置がLAN300により接続されている。
パーソナルコンピュータ301は、プログラムを実行する処理装置302と、処理装置302が実行するプログラムあるいはデータを記憶するローカルファイル装置303、キーボード、マウス、カードリーダ等の入力装置304、表示装置、プリンター等の出力装置305等を有している。
The neural network system according to the present invention can be configured as one independent computer system, or can be configured as a network configuration connected by a LAN or the Internet. FIG. 6 shows an example in which the devices constituting the neural network system according to the present invention are connected by a LAN. One or a plurality of personal computers 301 (only one is shown in FIG. 6), a
The
サーバ310は、指示されたプログラムを実行し且つネットワークに接続されている他の装置との間でデータの授受を行うサーバ処理部311、ニューラルネットワークを生成し学習に必要なプログラムとデータを格納するANN生成用データファィル装置312、図2のニューラルネットワーク記憶部402、学習済みニューラルネットワーク記憶部405、選択ニューラルネットワーク記憶部409となるANNファィル装置313、学習パターン430及び検証パターン450を記憶するパターンファイル装置314、及び図示されていないコンソール用の入出力装置等からなっている。
サーバ処理部311が実行するプログラムには、図2に示されるニューラルネットワークの生成部401に対応するニューラルネットワークを表す関数を生成するプログラム、学習部404に対応する関数の学習処理を行うプログラム、検証部407および選択部408に対応する学習が終了した関数から正解率の高い関数を選別する選別プログラム、認識部412及び確度算出部413に対応する選別された関数を用いて推論を行う推論プログラム等のプログラムが存在する。また、LAN300には検査装置320等の装置が接続されており、パーソナルコンピュータ301から利用可能となっている。
The
The program executed by the
ニューラルネットワークシステムを生成する時、パーソナルコンピュータ301の入力装置304、あるいはサーバ310のコンソールの入力装置から、サーバ処理部311にニューラルネットワークシステムの生成を指示する。指示にはニューラルネットワークシステムの性能に関する指示と共に、パターンファイル装置314に記憶されている学習パターンと検証パターンのファイルを指定する。
サーバ処理部311は入力装置からの指示に従い、ニューラルネットワークの生成、学習、検証、選択を実行し、ANNファィル装置313の選択ニューラルネットワーク記憶部409に選択されたニューラルネットワークを記憶する。
使用者がパーソナルコンピュータ301からニューラルネットワークシステムを利用する際、キーボートあるいは他の入力装置304を使用して判定するデータをサーバ310に送信する。サーバ処理部311の推論プログラムは、選択ニューラルネットワーク記憶部409に記憶されているニューラルネットワークを用いて判定データの判定処理(図2の412)を実行し、その結果をパーソナルコンピュータ301の出力装置から出力(図2の413)する。
When generating the neural network system, the
The
When the user uses the neural network system from the
本発明はニューラルネットワークを利用して医療の診断等に使用する推論システムに関するものであり、システムを内部構成が異なるが、同一の学習が行われた複数のニューラルネットワークにより構成するものである。
診断等においては診断の確度はどれくらいなのか、疾患に罹患する恐れはどの程度であるか等の情報は治療等の大きな判断要素となる。しかし、従来のニューラルネットワークから得られる予測は「罹患する」か「罹患しない」のいずれかであり、罹患する確率はどの程度なのか等、予測の確からしさを得ることはできなかった。
本発明は複数のニューラルネットワークを用いて予測を行い、予測のばらつきから予測の確度を求めるものである。利用者は「YES」か「NO」の予測みではなく、「YES」の予測の確度、或いは「YES」の状況が発生する確率を知ることが可能となる。
The present invention relates to an inference system used for medical diagnosis or the like using a neural network, and the system is constituted by a plurality of neural networks in which the same learning is performed, although the internal configuration is different.
In diagnosis and the like, information such as the degree of accuracy of diagnosis and the degree of risk of suffering from a disease is a major decision factor for treatment and the like. However, the prediction obtained from the conventional neural network is either “affected” or “not affected”, and it has been impossible to obtain the accuracy of the prediction, such as the probability of being affected.
In the present invention, prediction is performed using a plurality of neural networks, and the accuracy of prediction is obtained from the variation in prediction. The user can know not only the prediction of “YES” or “NO” but the accuracy of the prediction of “YES” or the probability of occurrence of the “YES” situation.
また、複数のニューラルネットワークを選択する構成として、入力層のノード数、中間層のノード数、フィードバックの方法(伝搬関数)、リンク荷重選択方法の異なるニューラルネットワークを多数作成して学習と検証を行ない、予測性能の高いニューラルネットワークを選別する構成とすることが可能である。当該構成を採用することにより、予測性能を高めると共に予測の確度の精度を高めることが可能となる。 In addition, as a configuration to select multiple neural networks, many neural networks with different numbers of input layer nodes, intermediate layer nodes, feedback methods (propagation functions), and link load selection methods are created for learning and verification. It is possible to adopt a configuration for selecting a neural network having high prediction performance. By adopting this configuration, it is possible to improve prediction performance and accuracy of prediction accuracy.
Claims (5)
前記N個のニューラルネットワークに同一の学習を行う学習手段と、
学習が終了した前記N個のニューラルネットワークに判定すべきデータを入力する判定データ入力手段と、
前記判定すべきデータに対する前記N個のニューラルネットワークの判定結果から特定の判定の割合を算出する確度算出手段と、
前記確度算出手段が算出した値を前記特定の判定の確度として出力する出力手段とからなることを特徴とするニューラルネットワークシステム。 N neural networks with different internal configurations (N is 2 or more),
Learning means for performing the same learning on the N neural networks;
Determination data input means for inputting data to be determined to the N neural networks for which learning has been completed;
Accuracy calculation means for calculating a specific determination ratio from the determination results of the N neural networks with respect to the data to be determined;
A neural network system comprising: output means for outputting the value calculated by the accuracy calculation means as the accuracy of the specific determination.
前記複数のニューラルネットワークの各々は入力層と中間層と出力層を有し、
前記学習はフィードバック伝搬関数とリンクの荷重により決定されるものであり、
前記入力層のノード数、前記中間層ノード数、前記フィードバック伝搬関数、前記リンクの荷重の選択方法の少なくとも1つが異なることにより内部構成が異なっていることを特徴とするニューラルネットワークシステム。 The neural network system according to claim 1, wherein
Each of the plurality of neural networks has an input layer, an intermediate layer, and an output layer;
The learning is determined by the feedback propagation function and the link weight,
A neural network system, wherein an internal configuration differs depending on at least one of the number of nodes in the input layer, the number of intermediate layer nodes, the feedback propagation function, and the load selection method of the link.
内部構成が異なるM個(MはNより大)のニューラルネットワークを生成するニューラルネットワーク生成手段を有し、
前記学習手段は前記M個のニューラルネットワークに同一の学習を行うものであり、
学習が終了した前記M個のニューラルネットワークから推定精度が高いN個のニューラルネットワークを選択する選択手段を有することを特徴とするニューラルネットワークシステム。 The neural network system according to claim 1 or 2, wherein
A neural network generating means for generating M (M is greater than N) neural networks having different internal configurations;
The learning means performs the same learning on the M neural networks,
A neural network system comprising selection means for selecting N neural networks having high estimation accuracy from the M neural networks having been learned.
前記M個のニューラルネットワークに同一の学習を行う学習ステップと、
学習が終了した前記M個のニューラルネットワークから推定精度が高いN個のニューラルネットワークを選択する選択ステップと、
前記N個のニューラルネットワークに判定すべきデータを入力する判定データ入力ステップと、
前記判定すべきデータに対する前記N個のニューラルネットワークの判定結果から特定の判定の割合を算出する確度算出ステップと、
前記確度算出ステップが算出した値を前記特定の判定の確度として出力する出力ステップとからなることを特徴とするニューラルネットワークの制御方法。 A neural network generation step for generating M neural networks having different internal configurations (M is greater than N);
A learning step for performing the same learning on the M neural networks;
A selection step of selecting N neural networks with high estimation accuracy from the M neural networks that have been learned;
A determination data input step of inputting data to be determined to the N neural networks;
A probability calculating step of calculating a specific determination ratio from the determination results of the N neural networks with respect to the data to be determined;
A method for controlling a neural network, comprising: an output step for outputting the value calculated in the accuracy calculation step as the accuracy of the specific determination.
前記M個のニューラルネットワークに同一の学習を行う学習ステップと、
学習が終了した前記M個のニューラルネットワークから推定精度が高いN個のニューラルネットワークを選択する選択ステップと、
前記N個のニューラルネットワークに判定すべきデータを入力する判定データ入力ステップと、
前記判定すべきデータに対する前記N個のニューラルネットワークの判定結果から特定の判定の割合を算出する確度算出ステップと、
前記確度算出ステップが算出した値を前記特定の判定の確度として出力する出力ステップをコンピュータに実行させることを特徴とするニューラルネットワークの制御プログラム。 A neural network generation step for generating M neural networks having different internal configurations (M is greater than N);
A learning step for performing the same learning on the M neural networks;
A selection step of selecting N neural networks with high estimation accuracy from the M neural networks that have been learned;
A determination data input step of inputting data to be determined to the N neural networks;
A probability calculating step of calculating a specific determination ratio from the determination results of the N neural networks with respect to the data to be determined;
A control program for a neural network, which causes a computer to execute an output step of outputting the value calculated in the accuracy calculation step as the accuracy of the specific determination.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010153765A JP2012018450A (en) | 2010-07-06 | 2010-07-06 | Neural network system, construction method of neural network system and control program of neural network system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010153765A JP2012018450A (en) | 2010-07-06 | 2010-07-06 | Neural network system, construction method of neural network system and control program of neural network system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012018450A true JP2012018450A (en) | 2012-01-26 |
Family
ID=45603675
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010153765A Withdrawn JP2012018450A (en) | 2010-07-06 | 2010-07-06 | Neural network system, construction method of neural network system and control program of neural network system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012018450A (en) |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013248329A (en) * | 2012-06-04 | 2013-12-12 | Fujitsu Ltd | Health condition determination method and health condition determination system |
| JP2016066269A (en) * | 2014-09-25 | 2016-04-28 | Kddi株式会社 | Clustering device, method and program |
| KR101855360B1 (en) * | 2017-12-13 | 2018-05-09 | 한국과학기술정보연구원 | Neural network configuration method and apparatus for learning optimization of neural network |
| JP2019003267A (en) * | 2017-06-12 | 2019-01-10 | 株式会社大塚商会 | Ai service use supporting system |
| JP2019028950A (en) * | 2017-08-03 | 2019-02-21 | 株式会社大塚商会 | AI service use support system |
| JP2019049916A (en) * | 2017-09-12 | 2019-03-28 | 株式会社アクセル | Processing device and inference processing method |
| KR20190048274A (en) * | 2017-10-31 | 2019-05-09 | 전자부품연구원 | Multiple Neural Network Configuration Method for Generating Multiple Analog Control Variables |
| JP2019106112A (en) * | 2017-12-14 | 2019-06-27 | オムロン株式会社 | Information processing apparatus, identification system, setting method, and program |
| CN110059799A (en) * | 2018-01-19 | 2019-07-26 | 国际商业机器公司 | The generation of neural network comprising middle layer background |
| JP2019159693A (en) * | 2018-03-12 | 2019-09-19 | Kddi株式会社 | Information processing device, information processing terminal, and program |
| CN110610234A (en) * | 2018-06-14 | 2019-12-24 | 国际商业机器公司 | Integrate external applications into deep neural networks |
| JP2020060803A (en) * | 2018-10-04 | 2020-04-16 | 株式会社カネカ | Health information processing method, health information processing apparatus, computer program, and learning model |
| JP2020123384A (en) * | 2020-04-17 | 2020-08-13 | 株式会社アクセル | Processing device and inference processing method |
| CN113169927A (en) * | 2018-12-12 | 2021-07-23 | 株式会社自动网络技术研究所 | Determination device, determination program, determination method, and method for generating neural network model |
| JP2023098890A (en) * | 2019-03-28 | 2023-07-11 | 京セラ株式会社 | Estimation device, estimation system, control program |
-
2010
- 2010-07-06 JP JP2010153765A patent/JP2012018450A/en not_active Withdrawn
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013248329A (en) * | 2012-06-04 | 2013-12-12 | Fujitsu Ltd | Health condition determination method and health condition determination system |
| JP2016066269A (en) * | 2014-09-25 | 2016-04-28 | Kddi株式会社 | Clustering device, method and program |
| JP2019003267A (en) * | 2017-06-12 | 2019-01-10 | 株式会社大塚商会 | Ai service use supporting system |
| JP2019028950A (en) * | 2017-08-03 | 2019-02-21 | 株式会社大塚商会 | AI service use support system |
| JP2019049916A (en) * | 2017-09-12 | 2019-03-28 | 株式会社アクセル | Processing device and inference processing method |
| KR20190048274A (en) * | 2017-10-31 | 2019-05-09 | 전자부품연구원 | Multiple Neural Network Configuration Method for Generating Multiple Analog Control Variables |
| KR102527605B1 (en) | 2017-10-31 | 2023-05-02 | 한국전자기술연구원 | Multiple Neural Network Configuration Method for Generating Multiple Analog Control Variables |
| KR101855360B1 (en) * | 2017-12-13 | 2018-05-09 | 한국과학기술정보연구원 | Neural network configuration method and apparatus for learning optimization of neural network |
| JP6992475B2 (en) | 2017-12-14 | 2022-01-13 | オムロン株式会社 | Information processing equipment, identification system, setting method and program |
| JP2019106112A (en) * | 2017-12-14 | 2019-06-27 | オムロン株式会社 | Information processing apparatus, identification system, setting method, and program |
| CN110059799A (en) * | 2018-01-19 | 2019-07-26 | 国际商业机器公司 | The generation of neural network comprising middle layer background |
| US12182711B2 (en) | 2018-01-19 | 2024-12-31 | International Business Machines Corporation | Generation of neural network containing middle layer background |
| US12020160B2 (en) | 2018-01-19 | 2024-06-25 | International Business Machines Corporation | Generation of neural network containing middle layer background |
| JP2019159693A (en) * | 2018-03-12 | 2019-09-19 | Kddi株式会社 | Information processing device, information processing terminal, and program |
| CN110610234A (en) * | 2018-06-14 | 2019-12-24 | 国际商业机器公司 | Integrate external applications into deep neural networks |
| CN110610234B (en) * | 2018-06-14 | 2023-04-07 | 国际商业机器公司 | Integrating external applications into deep neural networks |
| JP7190859B2 (en) | 2018-10-04 | 2022-12-16 | 株式会社カネカ | Health information processing method, health information processing device, computer program, and learning model |
| JP2020060803A (en) * | 2018-10-04 | 2020-04-16 | 株式会社カネカ | Health information processing method, health information processing apparatus, computer program, and learning model |
| CN113169927B (en) * | 2018-12-12 | 2023-01-03 | 株式会社自动网络技术研究所 | Determination device, determination program, determination method, and method for generating neural network model |
| CN113169927A (en) * | 2018-12-12 | 2021-07-23 | 株式会社自动网络技术研究所 | Determination device, determination program, determination method, and method for generating neural network model |
| JP2023098890A (en) * | 2019-03-28 | 2023-07-11 | 京セラ株式会社 | Estimation device, estimation system, control program |
| JP7454724B2 (en) | 2019-03-28 | 2024-03-22 | 京セラ株式会社 | Estimation device, estimation system, control program |
| JP2020123384A (en) * | 2020-04-17 | 2020-08-13 | 株式会社アクセル | Processing device and inference processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2012018450A (en) | Neural network system, construction method of neural network system and control program of neural network system | |
| Chen et al. | Early prediction of coronary artery disease (CAD) by machine learning method-a comparative study | |
| KR102024375B1 (en) | Apparatus and method for predicting disease risk of chronic kidney disease | |
| Orphanou et al. | DBN-extended: a dynamic Bayesian network model extended with temporal abstractions for coronary heart disease prognosis | |
| CN107743630A (en) | Meet the possibility of condition using Recognition with Recurrent Neural Network prediction | |
| Mokeddem et al. | Supervised feature selection for diagnosis of coronary artery disease based on genetic algorithm | |
| Lafta et al. | An intelligent recommender system based on short-term risk prediction for heart disease patients | |
| Akula et al. | Supervised machine learning based ensemble model for accurate prediction of type 2 diabetes | |
| JP7173482B2 (en) | Health care data analysis system, health care data analysis method and health care data analysis program | |
| WO2020045245A1 (en) | State transition prediction device, and device, method, and program for learning predictive model | |
| US20200058399A1 (en) | Control method and reinforcement learning for medical system | |
| Kumar et al. | Identification of cardiac patients based on the medical conditions using machine learning models | |
| Ashrafi et al. | Effect of a process mining based pre-processing step in prediction of the critical health outcomes | |
| Berchialla et al. | Integrating stress‐related ventricular functional and angiographic data in preventive cardiology: a unified approach implementing a Bayesian network | |
| Shuvo | An early detection of heart disease using machine learning (recurrent neural network): ML research on heart disease prediction | |
| Fidele et al. | Artificial Neural Network as a Clinical Decision-Supporting | |
| Sinha et al. | CARDPSoML: Comparative approach to analyze and predict cardiovascular disease based on medical report data and feature fusion approach | |
| de Lucena et al. | Predictive Performance of Machine Learning Algorithms Regarding Obesity Levels Based on Physical Activity and Nutritional Habits: A Comprehensive Analysis | |
| Mischie et al. | Artificial neural networks for diagnosis of coronary heart disease | |
| Haynatzki et al. | Building machine learning models to improve hypertension diagnosis | |
| Putzel et al. | Dynamic survival analysis for ehr data with personalized parametric distributions | |
| KR20260014812A (en) | Fall accident extrinsic codes prediction system and method thereof using an ai model | |
| US20250099000A1 (en) | Determining likelihood of kidney failure | |
| You et al. | A nonparametric control chart for dynamic disease risk monitoring | |
| Zulkifli et al. | Implementation of a Diabetes Status Prediction Application Using a Machine Learning Algorithm Approach |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131001 |