[go: up one dir, main page]

JP2012018450A - Neural network system, construction method of neural network system and control program of neural network system - Google Patents

Neural network system, construction method of neural network system and control program of neural network system Download PDF

Info

Publication number
JP2012018450A
JP2012018450A JP2010153765A JP2010153765A JP2012018450A JP 2012018450 A JP2012018450 A JP 2012018450A JP 2010153765 A JP2010153765 A JP 2010153765A JP 2010153765 A JP2010153765 A JP 2010153765A JP 2012018450 A JP2012018450 A JP 2012018450A
Authority
JP
Japan
Prior art keywords
neural network
neural networks
learning
neural
network system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010153765A
Other languages
Japanese (ja)
Inventor
Shigenari Hozawa
重成 朴沢
Hiroshi Hirose
寛 広瀬
Tetsuro Takayama
哲朗 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Priority to JP2010153765A priority Critical patent/JP2012018450A/en
Publication of JP2012018450A publication Critical patent/JP2012018450A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】
病歴あるいは健診の情報から疾患を推定し状況の変化を予測する等の推定処理を行うニューラルネットワークを用いたエキスパートシステムにおいて、推定結果と共に推定の確度を出力することが可能なニューラルネットワークシステムを提供する。
【解決手段】
入力層のノード数、中間層の数、中間層を構成するノードの数、各重み係数の初期値、学習の方法(ノード間の伝搬関数)等の構成要素が異なるニューラルネットワークを複数生成し、それらに同じ学習処理を行う。上記の複数のニューラルネットワークにより未知のパターンの推論を行い、推論のバラツキから判定結果の確実さを数値で出力する
【選択図】 図2
【Task】
Providing a neural network system that can output the accuracy of estimation along with the estimation results in an expert system that uses a neural network that performs estimation processing such as estimating disease from the history or medical examination information and predicting changes in the situation. To do.
[Solution]
Generate multiple neural networks with different components such as the number of nodes in the input layer, the number of intermediate layers, the number of nodes constituting the intermediate layer, the initial value of each weighting factor, and the learning method (propagation function between nodes) The same learning process is performed on them. Inferring unknown patterns with the above-mentioned multiple neural networks, and outputting the certainty of the judgment result numerically from the variation in the inference [selection figure]

Description

本発明は、複数のニューラルネットワークからなるニューラルネットワークシステムに関するものであり、例えば病歴情報、健診情報から疾患を推定し状況の変化を予測するニューラルネットワークを用いたニューラルネットワークシステムに関するものであり、ニューラルネットワークシステムとその構築方法及び制御プログラムを提供するものである。   The present invention relates to a neural network system including a plurality of neural networks, for example, a neural network system using a neural network that estimates a disease from medical history information and medical examination information and predicts a change in the situation, and A network system, its construction method, and a control program are provided.

人の疾患やプラントの故障等の対応において、外に現れた現象から原因を推定し、今後の推移を予測する手段としてニューラルネットワークの技術が利用されている。ニューラルネットワークは複数のニューロン回路により構成される。ニューロン回路は図7(a)に例示されるように、多入力(X1,X2,・・・・・、Xk)と1出力(y)の回路である。多入力(X1、X2、・・・・・、Xk)の各々には重み係数113( 1 2,・ k)が対応づけられており、重み演算部112により、入力(Xi)と重み係数( i)の積が求められる。各演算部112の演算結果は加算回路114により加算され、シグモイド関数、ヘビサイド関数等の閾値手段115により正規化され、出力117(y)となる。
図7(b)はニューラルネットワークの一例であり、図7(a)に示されるニューロン回路を複数組み合わせて構成されている。ニューラルネットワークは、診断データ等の測定データの組[X1、X2、・・・・・、Xp]151が入力される入力層152と、疾患名等に対応する1つ以上の出力155を出力する出力層154と、入力層152と出力層154の間に位置する少なくとも1つの中間層153から構成されている。
Neural network technology is used as a means for estimating causes from outside phenomena and predicting future transition in dealing with human diseases and plant failures. A neural network is composed of a plurality of neuron circuits. The neuron circuit is a circuit having multiple inputs (X 1 , X 2 ,..., X k ) and one output (y) as illustrated in FIG. Each of the multiple inputs (X 1 , X 2 ,..., X k ) is associated with a weight coefficient 113 ( W 1 , W 2 , .W k ). The product of (X i ) and the weighting factor ( W i ) is obtained. The calculation results of the calculation units 112 are added by the addition circuit 114, normalized by the threshold means 115 such as a sigmoid function or a snake side function, and output 117 (y).
FIG. 7B is an example of a neural network, and is configured by combining a plurality of neuron circuits shown in FIG. The neural network includes an input layer 152 to which a set of measurement data such as diagnostic data [X 1 , X 2 ,..., X p ] 151 is input, and one or more outputs 155 corresponding to disease names and the like. Output layer 154, and at least one intermediate layer 153 located between the input layer 152 and the output layer 154.

入力層152のi番目のノード(i)は入力(Xi)を中間層153のノードに分配する。中間層153と出力層154を構成するノードは図7(a)に示されるニューロン回路であり、前段のノードからの信号を前述の動作に従って処理し後段のノードに伝達、あるいは出力端子から出力する。
ニューラルネットワークで診断を行うには、例えば各症状あるいは健診の項目(発熱、咳、頭痛、血圧等)について、それらの項目に対応したデータ列を入力パターン[X1、X2、・・・・・、Xp]として、入力層152に入力する。また、出力層154の各ノードには推定すべき原因(病名等)を割り当てる。例えば出力1には「風邪」、出力2には「食中毒」、等を割り当てる。この場合、「風邪」の症状を表す入力パターンを入力部151から入力した時、「風邪」が割り当てられている第1のノードのみから「1」を出力し、他の原因(病名)が割り当てられているノードからは「0」を出力するように、ニューラルネットワークを学習する。
The i-th node (i) of the input layer 152 distributes the input (X i ) to the nodes of the intermediate layer 153. The nodes constituting the intermediate layer 153 and the output layer 154 are the neuron circuit shown in FIG. 7A, which processes the signal from the preceding node according to the above-described operation and transmits it to the succeeding node or outputs it from the output terminal. .
In order to make a diagnosis using a neural network, for example, for each symptom or health check item (fever, cough, headache, blood pressure, etc.), a data string corresponding to the item is input pattern [X 1 , X 2 ,. .., X p ] are input to the input layer 152. Further, a cause (such as a disease name) to be estimated is assigned to each node of the output layer 154. For example, “cold” is assigned to output 1, “food poisoning”, etc. are assigned to output 2. In this case, when an input pattern representing a “cold” symptom is input from the input unit 151, “1” is output only from the first node to which “cold” is assigned, and other causes (disease names) are assigned. The neural network is trained so that “0” is output from the node that is set.

図8はニューラルネットワークの学習の概要を示す図である。同図では出力層のノードは1つのみであり、例えば、入力パターンが「風邪」と認識した時はYESを意味する「1」を、「風邪」と認識しなかった時はNOを意味する「0」を出力するように学習する。「風邪」と認識さる症状等のパターンと、「風邪」と認識させない症状等のパターンを学習パターン161として多数用意する。また、各学習パターンに正解の出力、即ち「風邪」又は「風邪ではない」を表す出力「AZ(「1」又は「0」)」を正解データ162として付加する。学習を開始する前のニューロン回路の各重み係数は所定の初期値、あるいはランダムな値に設定される。学習パターン161の因子[A1]をニューラルネットワークの入力部X1に、因子[A2]を入力部X2と、1つの学習パターン161を構成する各因子をニューラルネットワークの対応する入力部に入力する。入力された学習パターン161の各要素は中間層152と出力層154のニューロン回路により順次演算され、出力端155に出力信号[Z]を出力する。 FIG. 8 is a diagram showing an outline of neural network learning. In the figure, there is only one node in the output layer. For example, when the input pattern is recognized as “cold”, “1” means YES, and when it is not recognized as “cold”, it means NO. Learning to output “0”. A large number of patterns such as symptoms recognized as “cold” and patterns such as symptoms not recognized as “cold” are prepared as learning patterns 161. In addition, an output of the correct answer, that is, an output “A Z (“ 1 ”or“ 0 ”)” indicating “cold” or “not cold” is added to each learning pattern as correct data 162. Each weighting coefficient of the neuron circuit before starting learning is set to a predetermined initial value or a random value. The factor [A 1 ] of the learning pattern 161 is input to the input unit X 1 of the neural network, the factor [A 2 ] is input to the input unit X 2, and each factor constituting one learning pattern 161 is input to the corresponding input unit of the neural network. input. Each element of the input learning pattern 161 is sequentially calculated by the neuron circuits of the intermediate layer 152 and the output layer 154, and outputs an output signal [Z] to the output terminal 155.

比較回路163は出力端155に出力された[Z]と学習パターン161に付加されている正解データ[AZ]を比較する。重み変更手段164は出力[Z]と正解データ[AZ]が一致するように、予め定められた方法に従って各ニューロン回路の重み係数の値を変更する。準備した各学習パターンに対して上記の学習動作を行い、全ての学習パターンに対して正しい値を出力する重み係数を決定して学習を終了する。学習が終了したニューラルネットワークに未知の症状のパターンが入力されると、当該症状のパターンの各因子の値を各ニューロン回路の重み係数に従って演算し、「風邪」に該当するか否かを「YES」または「NO」の2値データとして出力層154から出力する。ニューラルネットワークとその学習に関する公知文献には以下のものが存在する。 The comparison circuit 163 compares [Z] output to the output terminal 155 with the correct answer data [A Z ] added to the learning pattern 161. The weight changing means 164 changes the value of the weight coefficient of each neuron circuit according to a predetermined method so that the output [Z] and the correct answer data [A Z ] match. The learning operation described above is performed on each prepared learning pattern, the weighting coefficient that outputs a correct value for all the learning patterns is determined, and the learning ends. When an unknown symptom pattern is input to the learned neural network, the value of each factor of the symptom pattern is calculated according to the weighting coefficient of each neuron circuit, and whether or not it corresponds to “cold” is determined as “YES” ”Or“ NO ”is output from the output layer 154. The following are known documents related to neural networks and their learning.

特開2005−319301号公報JP-A-2005-319301 特開2005−293241号公報JP-A-2005-293241

図7及び図8に示される従来のニューラルネットワーク、あるいは前記の先行技術文献等に記載されるニューラルネットワークは、入力された測定値等の入力パターンが特定の事象に該当するか否かを示すデータを出力するものである。例えば、入力された健診データから数年後に糖尿病を発症するか否かを予測するように学習されたるニューラルネットワークは、判定対象の健診データに対して「糖尿病になる」「糖尿病にならない」の予測結果を出力する。
しかし、特定の疾患が発症する危険度は連続的に変化すると考えられる。また、疾患の予防策を作成する場合、現状のままでは発症する危険性は非常に大きいのか、あるいは危険性は小さいのか等、危険性の度合いを考慮して作成される。しかし、前述したようにニューラルネットワークは「発症する」「発症しない」の2値を出力するのみであり、診断あるいは対策の作成には限定的な意義を持つのみであった。
本発明は、例えば糖尿病の発症を予測する場合、「糖尿病になる可能性は70パーセント」「糖尿病になる可能性は30パーセント」等、発症の可能性を数値により提示することが可能なニューラルネットワークを提供するものである。
The conventional neural network shown in FIG. 7 and FIG. 8 or the neural network described in the prior art document etc. is data indicating whether or not an input pattern such as an input measurement value corresponds to a specific event. Is output. For example, a neural network that has been learned to predict whether or not diabetes will develop in the next few years from input medical checkup data is “becoming diabetic” or “not diabetic” for the medical checkup data to be determined. The prediction result of is output.
However, the risk of developing a specific disease is thought to change continuously. In addition, when preparing a preventive measure for a disease, it is created taking into consideration the degree of risk, such as whether the risk of developing the disease is very high or the risk is low. However, as described above, the neural network only outputs two values, “onset” and “not onset”, and has only a limited significance in creating a diagnosis or countermeasure.
In the present invention, for example, when predicting the onset of diabetes, a neural network capable of presenting the possibility of onset by numerical values, such as “the possibility of becoming diabetic is 70%” and “the possibility of becoming diabetic is 30%”. Is to provide.

ニューラルネットワークの構成は、入力層のノード数、中間層の数、中間層を構成するノードの数、各重み係数の初期値、学習の方法(ノード間の伝搬関数)等の要素により決まり、構成要素の差異により多様な構成のニューラルネットワークを生成することが可能である。構成要素が異なるニューラルネットワークであっても、それらに同一の学習を行うことにより、多くの場合、未知のパターンに対して同一の判定結果を出力するニューラルネットワークとすることが可能である。しかし、未知のパターンが「YES」と判定されるパターン領域と「NO」と判定されるパターン領域の境界近傍に位置すると、構成要素の異なるニューラルネットワークが異なる判定結果を出力する場合がある。本発明はニューラルネットワークの上記特性を利用することにより、判定結果の確実さを数値で出力することを可能とするものである。   The configuration of the neural network is determined by factors such as the number of nodes in the input layer, the number of intermediate layers, the number of nodes constituting the intermediate layer, the initial value of each weighting factor, and the learning method (propagation function between nodes). It is possible to generate a neural network having various configurations depending on the difference of elements. Even in the case of neural networks having different constituent elements, it is often possible to provide a neural network that outputs the same determination result for an unknown pattern by performing the same learning on them. However, when an unknown pattern is located in the vicinity of the boundary between the pattern area determined as “YES” and the pattern area determined as “NO”, different neural networks with different components may output different determination results. The present invention makes it possible to output the certainty of the determination result as a numerical value by utilizing the above characteristics of the neural network.

本発明は、同一の学習パターンにより学習した構成要素が異なる複数のニューラルネットワークを用意し、この複数のニューラルネットワークに判定すべきパターンを認識させ、判定結果の「YES」と「NO」の割合により判定結果の確実さを数値で出力する構成である。本発明を1つの疾患の判定に用いた場合、「当該疾患の可能性は70パーセント」等の出力が可能となる。また、出力層のノードを複数とし、各ノードに異なる疾患を対応づけて学習させた場合、各疾患の可能性を数値化し、可能性の高い順に整列して出力する等の構成が可能となる。   The present invention prepares a plurality of neural networks having different components learned by the same learning pattern, causes the plurality of neural networks to recognize a pattern to be determined, and determines the ratio of “YES” and “NO” as a determination result. In this configuration, the certainty of the determination result is output as a numerical value. When the present invention is used to determine one disease, an output such as “the probability of the disease is 70%” becomes possible. In addition, when there are a plurality of nodes in the output layer and each node is associated with a different disease and learned, the possibility of each disease can be digitized and output in the order of the highest possibility. .

本発明に係るニューラルネットワークシステムを構成するニューラルネットワークの一実施態様を示す図The figure which shows one embodiment of the neural network which comprises the neural network system which concerns on this invention 本発明に係るニューラルネットワークシステムの一実施態様の動作フローを示す図The figure which shows the operation | movement flow of one embodiment of the neural network system which concerns on this invention. 図2における学習部の詳細を示す図The figure which shows the detail of the learning part in FIG. 図2における検証部の詳細を示す図The figure which shows the detail of the verification part in FIG. 図2における認識部の詳細を示す図The figure which shows the detail of the recognition part in FIG. 本発明に係るニューラルネットワークシステムのネットワーク構成図Network configuration diagram of a neural network system according to the present invention ニューラルネットワークとニューロンの回路図Neural network and neuron circuit diagram ニューラルネットワークの学習の概念を示す図Diagram showing the concept of neural network learning

図1は本発明に係るニューラルネットワークシステムを構成するニューラルネットワークの概要を示す図である。本発明に係るニューラルネットワークの中間層は1層に限られるものではないが、説明の簡素化のため以下では1層で説明する。図1に示されるニューラルネットワークは、1つの入力層152と、1つの中間層153と、1つの出力層154からなっている。p個の因子からなるパターン[X1、X2、・・、Xi、・・、Xp]の各項が入力端151から入力層の各ノードに入力される。入力層152の各ノードは入力データを中間層153の各ノードに分配する。入力層152の各ノードと中間層153の各ノード)を結ぶ情報伝達路には重み演算部が存在する。例えば、入力層152のノード(i)と中間層153のノード(j)の間には重み演算部(Wij)が設けられており、入力層152のノード(i)からのデータ「Xi」に重み演算部(Wij)が有する重み係数「 ij」を乗じてノード(j)に伝達する。 FIG. 1 is a diagram showing an outline of a neural network constituting a neural network system according to the present invention. The intermediate layer of the neural network according to the present invention is not limited to a single layer, but will be described below as a single layer for the sake of simplicity. The neural network shown in FIG. 1 includes one input layer 152, one intermediate layer 153, and one output layer 154. Each term of the pattern [X 1 , X 2 ,..., X i ,..., X p ] composed of p factors is input from the input terminal 151 to each node of the input layer. Each node in the input layer 152 distributes input data to each node in the intermediate layer 153. A weight calculation unit exists in an information transmission path connecting each node of the input layer 152 and each node of the intermediate layer 153. For example, a weight calculator (W ij ) is provided between the node (i) of the input layer 152 and the node (j) of the intermediate layer 153, and the data “X i from the node (i) of the input layer 152 is provided. Is multiplied by a weight coefficient “ W ij ” possessed by the weight calculation unit (W ij ) and transmitted to the node (j).

中力層153のノード(j)は重み演算部(W1j)、・・、(Wpj)から伝達された情報を加算し、所定の方法に従って正規化した後、出力層154のノード(z)に伝達する。中力層153のノード(j)と出力層154のノード(z)を結ぶ情報伝達路には重み演算部(Wjz)が設けられており、中力層153のノード(j)からのデータに重み演算部(Wjz)が有する重み係数「 jz」を乗じて出力層154のノード(z)に伝達する。ノード(z)は、重み演算部(W1z)、・・、(Wmz)から伝達された情報を加算し、所定の方法に従って正規化した後、認識結果「Z」として出力する。
学習段階では、認識結果「Z」はフィードバック手段162に入力されて図8に示される正解「AZ」と比較され、各重み演算部が有する重み係数の修正に利用される。
The node (j) of the intermediate force layer 153 adds the information transmitted from the weight calculation units (W 1j ),..., (W pj ), and normalizes it according to a predetermined method. ). The information transmission path connecting the node (j) of the intermediate force layer 153 and the node (z) of the output layer 154 is provided with a weight calculation unit (W jz ), and data from the node (j) of the intermediate force layer 153 Is multiplied by a weight coefficient “ W jz ” possessed by the weight calculator (W jz ) and transmitted to the node (z) of the output layer 154. The node (z) adds the information transmitted from the weight calculation units (W 1z ),..., (W mz ), normalizes it according to a predetermined method, and outputs it as a recognition result “Z”.
In the learning stage, the recognition result “Z” is input to the feedback means 162 and compared with the correct answer “A Z ” shown in FIG. 8, and is used to correct the weighting factor of each weight calculator.

ニューラルネットワークは、入力パターンのp個の因子[X1、X2、・・、Xi、・・、Xp]を変数、出力[Z]を計算値とする関数で表される。また、ニューラルネットワークの学習はp個の変数[X1、X2、・・、Xi、・・、Xp]から所期の値[Z]を出力する関数のパラメータ(定数)を選定する処理と言える。従って、コンピュータプログラムによりニューラルネットワークの機能を実現することにより、異なる形態のニューラルネットワークを任意の数生成することが可能であり、また、それらを用いた推定処理を並列的に実行することも可能である。 The neural network is represented by a function having p factors [X 1 , X 2 ,..., X i ,..., X p ] of the input pattern as variables and the output [Z] as a calculated value. In the neural network learning, a parameter (constant) of a function that outputs an intended value [Z] is selected from p variables [X 1 , X 2 ,..., X i ,. It can be said processing. Therefore, it is possible to generate an arbitrary number of different types of neural networks by realizing the function of the neural network by a computer program, and it is also possible to execute estimation processing using them in parallel. is there.

図1のニューラルネットワークの形態制御手段170はニューラルネットワークのノード数、学習のためのフィードバックの方法を選択する制御部であり、以下の機能を有している。
1.入力層152のノード数の選択
2.中間層153のノード数の選択
3.フィードバックの方法(伝搬関数)の選択
4.リンク荷重の選択
1 is a control unit that selects the number of nodes of the neural network and a feedback method for learning, and has the following functions.
1. 1. Selection of the number of nodes in the input layer 152 2. Selection of the number of nodes in the intermediate layer 153 3. Selection of feedback method (propagation function) Link load selection

[入力層152のノード数の選択]
入力パターンを構成する複数(図1ではX1〜Xpのp個)の因子には、推定に必須の因子と、利用する利用しないを任意に選択可能な因子が存在する。形態制御手段170は選択可能な因子を利用するか利用しないかを決定し、必須の因子と選択した因子に対応する入力ノードで入力層152を決定する。当該機能により、入力層152のノード数と使用する因子が異なる複数の形態のニューラルネットワークを生成することが可能となる。
[Selection of the number of nodes in the input layer 152]
As a plurality of factors ( p in X 1 to X p in FIG. 1) constituting the input pattern, there are a factor that is essential for estimation and a factor that can be arbitrarily selected not to use. The form control means 170 determines whether to use a selectable factor or not, and determines the input layer 152 at the input node corresponding to the required factor and the selected factor. With this function, it is possible to generate a plurality of forms of neural networks in which the number of nodes in the input layer 152 and the factors used are different.

[中間層153のノード数の選択]
ニューラルネットワークの中間層の数と各中間層に属するノード数は任意に選択することが可能である。本実施態様では各中間層に属するノード数を0〜25の間でランダムに選択する構成となっている。ノード数が決定されると、中間層153の各ノード(j)と入力層152の各ノード(i)の間に信号路と重み演算部(Wij)を設定する。また、重み演算部(Wij)の重み係数( ij)の初期値を設定する。
中間層153の各ノード(j)と出力層154のノード(z)の間に信号路と重み演算部(Wjz)を設定すると共に、当該重み演算部の重み係数( jz)の初期値を設定する。重み係数( ij)と( jz)の初期値はランダムに設定される。中間層のノード数と重み係数の初期値はランダムに設定されるため、構成が異なる多数のニューラルネットワークを容易に生成することが可能である。
[Selection of the number of nodes in the intermediate layer 153]
The number of intermediate layers of the neural network and the number of nodes belonging to each intermediate layer can be arbitrarily selected. In this embodiment, the number of nodes belonging to each intermediate layer is randomly selected from 0 to 25. When the number of nodes is determined, a signal path and a weight calculation unit (W ij ) are set between each node (j) of the intermediate layer 153 and each node (i) of the input layer 152. In addition, an initial value of the weight coefficient ( W ij ) of the weight calculation unit (W ij ) is set.
A signal path and a weight calculation unit (W jz ) are set between each node (j) of the intermediate layer 153 and the node (z) of the output layer 154, and an initial value of the weight coefficient ( W jz ) of the weight calculation unit Set. The initial values of the weighting factors ( W ij ) and ( W jz ) are set at random. Since the number of nodes in the intermediate layer and the initial value of the weighting factor are set at random, it is possible to easily generate a large number of neural networks having different configurations.

[フィードバック方法(伝搬関数)の選択]
ニューラルネットワークのフィードバックの形態、即ち、学習方法には、線形関数、動径関数等、多くの方法が知られている。本実施例では、線形関数、動径関数、一般回帰、誤差逆伝播によるフィードバック処理手段(プログラム)を設け、ニューラルネットワークを生成する際、上記フィードバック処理手段から一つの処理手段をランダムに選択し、フィードバック手段162を構成する。
[Select feedback method (propagation function)]
As a feedback form of a neural network, that is, a learning method, many methods such as a linear function and a radial function are known. In this embodiment, a linear function, radial function, general regression, feedback processing means (program) by error back propagation is provided, and when generating a neural network, one processing means is randomly selected from the feedback processing means, The feedback means 162 is configured.

[リンク荷重の選択]
リンク荷重の決定とは上記の伝播関数のパラメータを決定することであり、その決定方法には多くの数学的手法がある。本実施例では、バックプロパゲーション(誤差逆伝搬法)、共役勾配降下法、K-meansアルゴリズム(中心の割り当て)、最近隣法、擬似逆行行列(線形最小2乗最適化)からランダムに選択した方法に基づいて、上記伝播関数のパラメータを決定する構成となっている。
[Select link load]
The determination of the link load is to determine the parameters of the above-mentioned propagation function, and there are many mathematical methods for the determination method. In the present embodiment, random selection was made from backpropagation (error back propagation method), conjugate gradient descent method, K-means algorithm (center assignment), nearest neighbor method, and pseudo inverse matrix (linear least square optimization). Based on the method, the parameters of the propagation function are determined.

構成が異なるニューラルネットワークであっても、それらを同一の学習パターンを用いて学習することにより、同じ推定動作を行うニューラルネットワークとすることが可能である。同じ学習が行われた異なる構成のニューラルネットワークに、「YES」または「NO」と推定される典型的なパターンと類似度が高い未知のパターンを入力すると、多くのニューラルネットワークは同じ推定結果を出力する。
しかし、未知のパターンが上記の典型的なパターンの何れとも大きく異なっている、即ち、未知のパターンが「YES」または「NO」と推定されるパターンの領域の境界近傍に位置すると、ニューラルネットワークが異なる推定結果を出力する場合がある。全ての推定結果に対する「YES」の割合(または「NO」の割合)は推定結果の確からしさを表している。例えば、糖尿病の発症を予測するように学習された複数のニューラルネットワークの70パーセントが「糖尿病になる」と予測し、30パーセントが「糖尿病にならない」と予測した場合、「糖尿病になる可能性は70パーセント」となる。
本発明は、構成が異なる複数のニューラルネットワークを用意して同一の学習を行い、学習が完了した複数のニューラルネットワークにより未知のデータの推定を行う。推定結果の「YES」または「NO」の割合から、推定結果の確からしさを数値化して出力するものである。
Even if the neural networks have different configurations, a neural network that performs the same estimation operation can be obtained by learning them using the same learning pattern. When an unknown pattern with a high similarity to a typical pattern estimated to be "YES" or "NO" is input to a neural network with a different configuration that has undergone the same learning, many neural networks output the same estimation result To do.
However, if the unknown pattern is significantly different from any of the above typical patterns, that is, if the unknown pattern is located near the boundary of the region of the pattern that is estimated to be “YES” or “NO”, the neural network Different estimation results may be output. The ratio of “YES” (or the ratio of “NO”) to all estimation results represents the likelihood of the estimation results. For example, if 70 percent of multiple neural networks that are trained to predict the onset of diabetes predict that they will “become diabetic” and 30 percent predict that they will not be diabetic, 70 percent ".
In the present invention, a plurality of neural networks having different configurations are prepared and the same learning is performed, and unknown data is estimated by the plurality of neural networks that have been learned. From the ratio of “YES” or “NO” in the estimation result, the probability of the estimation result is digitized and output.

図2は本発明に係るニューラルネットワークシステムの構築過程と推定過程の一例を示す図である。本実施態様は構成が異なるニューラルネットワークをM個(例えば、十数万個)生成して同一の学習パターンにより同一の学習を行う。学習が終了したM個のニューラルネットワークに複数の検証パターンの判定を行わせて各ニューラルネットワークの正解率を求め、推定の精度が高いニューラルネットワークをN個(例えば、百個)選択する構成となっている。   FIG. 2 is a diagram showing an example of a construction process and an estimation process of the neural network system according to the present invention. In the present embodiment, M (for example, several ten thousand) neural networks having different configurations are generated, and the same learning is performed using the same learning pattern. The M neural networks that have finished learning are subjected to determination of a plurality of verification patterns, the accuracy rate of each neural network is obtained, and N (for example, 100) neural networks with high estimation accuracy are selected. ing.

図2のニューラルネットワーク生成部401は、入力層のノード数、中間層のノード数、フィードバックの方法(伝搬関数)、リンク荷重の選択方法の全部、あるいは一部をランダムに変更して構成が異なるニューラルネットワークをM個生成する。生成された各ニューラルネットワークを規定するデータはデータブロックとし、ニューラルネットワーク記憶部402に記憶される。
学習パターン記憶部403にはニューラルネットワークの学習に使用する学習パターンとその正解データの対が複数、例えば200対記憶されている。6年後のメタボリックシンドロームの発症を予測する場合、健康診断において収集された200人の受診者の、年齢、性別、Body mass index、収縮期血圧(SBP)、拡張期血圧(DBP)、血中グルコース、中性脂肪、HDLコレステロール、LDLコレステロール、AST値、ALT値、HMW-adiponectin、total adiponectin、glycated albumin、総コレステロール、遊離脂肪酸、インシュリン、HOMA-IR、喫煙の有無等に関するデータと、各受診者が6年後の健康診断においてメタボリックシンドロームと診断されたか否かを示すデータが対にして記憶される。
The neural network generation unit 401 in FIG. 2 differs in configuration by randomly changing all or part of the number of nodes in the input layer, the number of nodes in the intermediate layer, the feedback method (propagation function), and the link load selection method. M neural networks are generated. The generated data defining each neural network is stored in the neural network storage unit 402 as a data block.
The learning pattern storage unit 403 stores a plurality of, for example, 200 pairs of learning patterns and their correct answer data used for neural network learning. When predicting the onset of metabolic syndrome after 6 years, the age, gender, body mass index, systolic blood pressure (SBP), diastolic blood pressure (DBP), blood, Glucose, neutral fat, HDL cholesterol, LDL cholesterol, AST value, ALT value, HMW-adiponectin, total adiponectin, glycated albumin, total cholesterol, free fatty acid, insulin, HOMA-IR, presence or absence of smoking, etc. Data indicating whether or not a person has been diagnosed with metabolic syndrome in a health examination six years later is stored in pairs.

学習部404は学習パターン記憶部403に記憶された学習パターンと正解データの対を用いて、ニューラルネットワーク記憶部402に記憶されているM個のニューラルネットワークの学習を行う。学習が完了したニューラルネットワークは学習済みニューラルネットワーク記憶部405に記憶される。
図3はニューラルネットワークをM個生成する処理421の後に実行される、学習パターンによりM個のニューラルネットワークを学習する処理の概念図である。ステップ421で、構成が異なるニューラルネットワークをM個(432−1〜432−M)生成し、ニューラルネットワーク記憶部402に記憶する。また、同記憶部402にはニューラルネットワーク432−1ないし432−M対応に、フィードバックの方法とリンク荷重の選択方法に関する情報が記憶される。
ステップ422で、学習部404はニューラルネットワーク記憶部402に記憶されているニューラルネットワーク432−1ないし432−Mの学習を行う。
学習パターン記憶部403から読み出された学習パターン430はニューラルネットワーク432−1ないし432−Mに入力される。学習パターン430から各ニューラルネットワークが推定した出力は、比較部433−1ないし433−Mにより、同じく学習パターン記憶部403から読み出された正解431と比較される。比較結果はフィードバック434−1ないし434−Mを介して各ニューラルネットワークに帰還され、重み係数の修正に使用される。重み係数の修正はニューラルネットワーク432−1ないし432−M対応にニューラルネットワーク記憶部402に記憶されているフィードバックの方法とリンク荷重の選択方法に関する情報に基づいて行われる。
上記動作はニューラルネットワーク432−1ないし432−Mの全ての学習が全て終了するまで繰り返される。学習が終了したニューラルネットワーク432−1ないし432−Mのデータは学習済みニューラルネットワーク記憶部405に記憶される。
The learning unit 404 learns M neural networks stored in the neural network storage unit 402 using pairs of learning patterns and correct data stored in the learning pattern storage unit 403. The learned neural network is stored in the learned neural network storage unit 405.
FIG. 3 is a conceptual diagram of a process of learning M neural networks using a learning pattern, which is executed after the process 421 of generating M neural networks. In step 421, M (432-1 to 432 -M) neural networks having different configurations are generated and stored in the neural network storage unit 402. Further, the storage unit 402 stores information relating to a feedback method and a link load selection method corresponding to the neural networks 432-1 to 432-M.
In step 422, the learning unit 404 learns the neural networks 432-1 to 432-M stored in the neural network storage unit 402.
The learning pattern 430 read from the learning pattern storage unit 403 is input to the neural networks 432-1 to 432-M. The output estimated by each neural network from the learning pattern 430 is compared with the correct answer 431 read out from the learning pattern storage unit 403 by the comparison units 433-1 to 433-M. The comparison result is fed back to each neural network via feedbacks 434-1 to 434-M and used to correct the weighting factor. The correction of the weighting factor is performed based on the feedback method and link load selection method stored in the neural network storage unit 402 corresponding to the neural networks 432-1 to 432-M.
The above operation is repeated until all learning of the neural networks 432-1 to 432-M is completed. The data of the neural networks 432-1 to 432-M for which learning has been completed is stored in the learned neural network storage unit 405.

図2の検証パターン記憶部406には、検証パターンと正解データの対が記憶されている。検証パターンは学習パターンと同じ因子から構成されており、例えば、健康診断等で収集されたデータの一部を学習パターンとし、残りを検証パターンとすることにより作成可能である。検証部407は、学習済みニューラルネットワーク記憶部405に記憶されているニューラルネットワークの各々に検証パターンを入力し、その出力を正解データと比較し正解率を検証結果記憶部407に記憶する。
選択部408は検証結果記憶部407に記憶されているM個のニューラルネットワークの正解率を読み出し、正解率の高いN個を選択して選択ニューラルネットワーク記憶部409に記憶する。
The verification pattern storage unit 406 in FIG. 2 stores a pair of verification pattern and correct data. The verification pattern is composed of the same factors as the learning pattern. For example, the verification pattern can be created by using a part of data collected in a health checkup as a learning pattern and the rest as a verification pattern. The verification unit 407 inputs a verification pattern to each of the neural networks stored in the learned neural network storage unit 405, compares the output with correct data, and stores the correct answer rate in the verification result storage unit 407.
The selection unit 408 reads the correct rate of the M neural networks stored in the verification result storage unit 407, selects N with a high correct rate, and stores it in the selected neural network storage unit 409.

図4は検証部407が実行する各ニューラルネットワークの正解率を求める処理の概念図である。
ステップ441で、検証部407は検証パターン記憶部406から検証パターン450を読み出し、学習済みニューラルネットワーク記憶部405に記憶されているニューラルネットワーク432−1ないし432−Mに入力する。各ニューラルネットワークの出力は、比較部453−1ないし453−Mにより、検証パターン記憶部405から読み出された正解451と比較される。比較結果は正解/不正解のデータとして正解率管理手段454−1ないし454−Mに記憶される。全ての検証パターンの検証が終了すると、正解率管理手段454−1ないし454−Mは記憶された正解/不正解のデータから正解率を計算して記憶し、ステップ441を終了する。
ステップ442で、図2の選択部408は正解率管理手段454−1ないし454−Mに記憶されている正解率を検証し、正解率が高いニューラルネットワークをN個、例えば100個選択し選択ニューラルネットワーク記憶部409に記憶する。当該処理が終了することにより、本発明に係るニューラルネットワークの生成は終了する。
FIG. 4 is a conceptual diagram of processing for obtaining the correct answer rate of each neural network executed by the verification unit 407.
In step 441, the verification unit 407 reads the verification pattern 450 from the verification pattern storage unit 406 and inputs it to the neural networks 432-1 to 432-M stored in the learned neural network storage unit 405. The output of each neural network is compared with the correct answer 451 read from the verification pattern storage unit 405 by the comparison units 453-1 to 453-M. The comparison result is stored in the correct answer rate management means 454-1 to 454-M as correct / incorrect answer data. When the verification of all the verification patterns is completed, the correct rate management means 454-1 to 454-M calculate and store the correct rate from the stored correct / incorrect answer data, and end step 441.
In step 442, the selection unit 408 in FIG. 2 verifies the accuracy rate stored in the accuracy rate management means 454-1 to 454-M, selects N neural networks with high accuracy rates, for example, 100, and selects the selected neural network. Store in the network storage unit 409. When the process ends, the generation of the neural network according to the present invention ends.

図2の認識部412は、コンピュータのキーボート、あるいはデータ記憶装置等の外部装置から読み取られた判定すべきデータ410を、判定パターン入力部411を介して受信し、選択ニューラルネットワーク記憶部406に記憶されているN個のニューラルネットワークに入力する。確度算出部413はN個のニューラルネットワークが出力したN個の判定結果を受け取り、判定結果が「YES」(または「NO」)の割合を算出して出力する。
図5は認識部412と確度算出部413が実行する判定パターンに対する認識の確度を求める処理の概念図である。
ステップ461で、認識部412は判定パターン入力部411を介して受信した判定パターン470を選択ニューラルネットワーク記憶部409に記憶されているニューラルネットワーク471−1ないし471−Nの各々に入力し、各判定結果を確度算出部413に送信する。
ステップ462で、確度算出部413は「YES」(または「NO」)の判定結果の割合を当該判定の確度473として出力する。
The recognition unit 412 in FIG. 2 receives the data 410 to be determined read from an external device such as a computer keyboard or a data storage device via the determination pattern input unit 411 and stores it in the selected neural network storage unit 406. Input to the N neural networks. The accuracy calculation unit 413 receives N determination results output from the N neural networks, calculates a ratio of the determination result “YES” (or “NO”), and outputs the calculated ratio.
FIG. 5 is a conceptual diagram of processing for obtaining the recognition accuracy for the determination pattern executed by the recognition unit 412 and the accuracy calculation unit 413.
In step 461, the recognizing unit 412 inputs the determination pattern 470 received via the determination pattern input unit 411 to each of the neural networks 471-1 to 471 -N stored in the selected neural network storage unit 409. The result is transmitted to the accuracy calculation unit 413.
In step 462, the accuracy calculation unit 413 outputs the determination result ratio “YES” (or “NO”) as the determination accuracy 473.

本発明は内部の構成は異なるが、同一の学習パターンにより学習された複数のニューラルネットワークにより未知のパターンの原因等を推定し、推定結果と共にその推定の確からしさを数値化して出力することを可能とするものである。
図1ないし図5に示される実施態様は、出力層のノードは1つであり、1つの事象、例えば「糖尿病になる/ならない」を推定する構成である。しかし、図7(b)に示されるように、出力層のノードを複数とし、各ノードに異なる事象を割り当てる構成も可能である。例えば、出力層のノード1には疾患A、ノード2には疾患B・・・・を割り当てることにより、1つの判定パターンから、疾患Aの可能性はXパーセント、疾患Bの可能性はYパーセント・・・等、複数の推定結果を同時に得ることが可能となる。
Although the present invention is different in internal configuration, it is possible to estimate the cause of an unknown pattern by a plurality of neural networks learned by the same learning pattern, and to quantify and output the probability of the estimation together with the estimation result It is what.
The embodiment shown in FIG. 1 to FIG. 5 has a configuration in which there is one node in the output layer, and one event, for example, “becoming diabetic or not” is estimated. However, as shown in FIG. 7B, a configuration in which a plurality of nodes in the output layer are provided and different events are assigned to each node is also possible. For example, by assigning the disease A to the node 1 in the output layer, the disease B... To the node 2, the probability of the disease A is X percent and the probability of the disease B is Y percent from one determination pattern. It is possible to obtain a plurality of estimation results simultaneously.

本発明に係るニューラルネットワークシステムは1つの独立したコンピュータシステムとして構成することも、LANあるいはインターネットにより結合されたネットワーク構成とすることも可能である。図6は本発明に係るニューラルネットワークシステムを構成する装置をLANにより接続した例である。1台又は複数台のパーソナルコンピュータ301(図6には1台のみが図示されている)と、サーバ310と、検査装置320等他の装置がLAN300により接続されている。
パーソナルコンピュータ301は、プログラムを実行する処理装置302と、処理装置302が実行するプログラムあるいはデータを記憶するローカルファイル装置303、キーボード、マウス、カードリーダ等の入力装置304、表示装置、プリンター等の出力装置305等を有している。
The neural network system according to the present invention can be configured as one independent computer system, or can be configured as a network configuration connected by a LAN or the Internet. FIG. 6 shows an example in which the devices constituting the neural network system according to the present invention are connected by a LAN. One or a plurality of personal computers 301 (only one is shown in FIG. 6), a server 310, and other devices such as an inspection device 320 are connected by a LAN 300.
The personal computer 301 includes a processing device 302 that executes a program, a local file device 303 that stores a program or data executed by the processing device 302, an input device 304 such as a keyboard, a mouse, and a card reader, and an output such as a display device and a printer. A device 305 and the like.

サーバ310は、指示されたプログラムを実行し且つネットワークに接続されている他の装置との間でデータの授受を行うサーバ処理部311、ニューラルネットワークを生成し学習に必要なプログラムとデータを格納するANN生成用データファィル装置312、図2のニューラルネットワーク記憶部402、学習済みニューラルネットワーク記憶部405、選択ニューラルネットワーク記憶部409となるANNファィル装置313、学習パターン430及び検証パターン450を記憶するパターンファイル装置314、及び図示されていないコンソール用の入出力装置等からなっている。
サーバ処理部311が実行するプログラムには、図2に示されるニューラルネットワークの生成部401に対応するニューラルネットワークを表す関数を生成するプログラム、学習部404に対応する関数の学習処理を行うプログラム、検証部407および選択部408に対応する学習が終了した関数から正解率の高い関数を選別する選別プログラム、認識部412及び確度算出部413に対応する選別された関数を用いて推論を行う推論プログラム等のプログラムが存在する。また、LAN300には検査装置320等の装置が接続されており、パーソナルコンピュータ301から利用可能となっている。
The server 310 executes the instructed program and transmits / receives data to / from other devices connected to the network. The server 310 generates a neural network and stores programs and data necessary for learning. Data file device 312 for ANN generation, neural network storage unit 402 in FIG. 2, learned neural network storage unit 405, ANN file device 313 to be selected neural network storage unit 409, pattern file for storing learning pattern 430 and verification pattern 450 The apparatus 314 includes a console input / output device (not shown).
The program executed by the server processing unit 311 includes a program for generating a function representing a neural network corresponding to the generation unit 401 of the neural network shown in FIG. 2, a program for performing learning processing of a function corresponding to the learning unit 404, and verification. A selection program for selecting a function with a high accuracy rate from functions corresponding to the learning finished corresponding to the unit 407 and the selection unit 408, an inference program for performing an inference using the selected functions corresponding to the recognition unit 412 and the accuracy calculation unit 413, and the like There are programs. The LAN 300 is connected to a device such as an inspection device 320 and can be used from the personal computer 301.

ニューラルネットワークシステムを生成する時、パーソナルコンピュータ301の入力装置304、あるいはサーバ310のコンソールの入力装置から、サーバ処理部311にニューラルネットワークシステムの生成を指示する。指示にはニューラルネットワークシステムの性能に関する指示と共に、パターンファイル装置314に記憶されている学習パターンと検証パターンのファイルを指定する。
サーバ処理部311は入力装置からの指示に従い、ニューラルネットワークの生成、学習、検証、選択を実行し、ANNファィル装置313の選択ニューラルネットワーク記憶部409に選択されたニューラルネットワークを記憶する。
使用者がパーソナルコンピュータ301からニューラルネットワークシステムを利用する際、キーボートあるいは他の入力装置304を使用して判定するデータをサーバ310に送信する。サーバ処理部311の推論プログラムは、選択ニューラルネットワーク記憶部409に記憶されているニューラルネットワークを用いて判定データの判定処理(図2の412)を実行し、その結果をパーソナルコンピュータ301の出力装置から出力(図2の413)する。
When generating the neural network system, the server processing unit 311 is instructed to generate the neural network system from the input device 304 of the personal computer 301 or the console input device of the server 310. In the instruction, a learning pattern and a verification pattern file stored in the pattern file device 314 are specified together with an instruction regarding the performance of the neural network system.
The server processing unit 311 executes generation, learning, verification, and selection of a neural network in accordance with an instruction from the input device, and stores the selected neural network in the selected neural network storage unit 409 of the ANN file device 313.
When the user uses the neural network system from the personal computer 301, data to be determined using a keyboard or other input device 304 is transmitted to the server 310. The inference program of the server processing unit 311 executes a determination data determination process (412 in FIG. 2) using the neural network stored in the selected neural network storage unit 409, and the result is output from the output device of the personal computer 301. Output (413 in FIG. 2).

本発明はニューラルネットワークを利用して医療の診断等に使用する推論システムに関するものであり、システムを内部構成が異なるが、同一の学習が行われた複数のニューラルネットワークにより構成するものである。
診断等においては診断の確度はどれくらいなのか、疾患に罹患する恐れはどの程度であるか等の情報は治療等の大きな判断要素となる。しかし、従来のニューラルネットワークから得られる予測は「罹患する」か「罹患しない」のいずれかであり、罹患する確率はどの程度なのか等、予測の確からしさを得ることはできなかった。
本発明は複数のニューラルネットワークを用いて予測を行い、予測のばらつきから予測の確度を求めるものである。利用者は「YES」か「NO」の予測みではなく、「YES」の予測の確度、或いは「YES」の状況が発生する確率を知ることが可能となる。
The present invention relates to an inference system used for medical diagnosis or the like using a neural network, and the system is constituted by a plurality of neural networks in which the same learning is performed, although the internal configuration is different.
In diagnosis and the like, information such as the degree of accuracy of diagnosis and the degree of risk of suffering from a disease is a major decision factor for treatment and the like. However, the prediction obtained from the conventional neural network is either “affected” or “not affected”, and it has been impossible to obtain the accuracy of the prediction, such as the probability of being affected.
In the present invention, prediction is performed using a plurality of neural networks, and the accuracy of prediction is obtained from the variation in prediction. The user can know not only the prediction of “YES” or “NO” but the accuracy of the prediction of “YES” or the probability of occurrence of the “YES” situation.

また、複数のニューラルネットワークを選択する構成として、入力層のノード数、中間層のノード数、フィードバックの方法(伝搬関数)、リンク荷重選択方法の異なるニューラルネットワークを多数作成して学習と検証を行ない、予測性能の高いニューラルネットワークを選別する構成とすることが可能である。当該構成を採用することにより、予測性能を高めると共に予測の確度の精度を高めることが可能となる。   In addition, as a configuration to select multiple neural networks, many neural networks with different numbers of input layer nodes, intermediate layer nodes, feedback methods (propagation functions), and link load selection methods are created for learning and verification. It is possible to adopt a configuration for selecting a neural network having high prediction performance. By adopting this configuration, it is possible to improve prediction performance and accuracy of prediction accuracy.

Claims (5)

内部構成が異なるN個(Nは2以上)のニューラルネットワークと、
前記N個のニューラルネットワークに同一の学習を行う学習手段と、
学習が終了した前記N個のニューラルネットワークに判定すべきデータを入力する判定データ入力手段と、
前記判定すべきデータに対する前記N個のニューラルネットワークの判定結果から特定の判定の割合を算出する確度算出手段と、
前記確度算出手段が算出した値を前記特定の判定の確度として出力する出力手段とからなることを特徴とするニューラルネットワークシステム。
N neural networks with different internal configurations (N is 2 or more),
Learning means for performing the same learning on the N neural networks;
Determination data input means for inputting data to be determined to the N neural networks for which learning has been completed;
Accuracy calculation means for calculating a specific determination ratio from the determination results of the N neural networks with respect to the data to be determined;
A neural network system comprising: output means for outputting the value calculated by the accuracy calculation means as the accuracy of the specific determination.
請求項1記載のニューラルネットワークシステムであって、
前記複数のニューラルネットワークの各々は入力層と中間層と出力層を有し、
前記学習はフィードバック伝搬関数とリンクの荷重により決定されるものであり、
前記入力層のノード数、前記中間層ノード数、前記フィードバック伝搬関数、前記リンクの荷重の選択方法の少なくとも1つが異なることにより内部構成が異なっていることを特徴とするニューラルネットワークシステム。
The neural network system according to claim 1, wherein
Each of the plurality of neural networks has an input layer, an intermediate layer, and an output layer;
The learning is determined by the feedback propagation function and the link weight,
A neural network system, wherein an internal configuration differs depending on at least one of the number of nodes in the input layer, the number of intermediate layer nodes, the feedback propagation function, and the load selection method of the link.
請求項1または請求項2記載のニューラルネットワークシステムであって、
内部構成が異なるM個(MはNより大)のニューラルネットワークを生成するニューラルネットワーク生成手段を有し、
前記学習手段は前記M個のニューラルネットワークに同一の学習を行うものであり、
学習が終了した前記M個のニューラルネットワークから推定精度が高いN個のニューラルネットワークを選択する選択手段を有することを特徴とするニューラルネットワークシステム。
The neural network system according to claim 1 or 2, wherein
A neural network generating means for generating M (M is greater than N) neural networks having different internal configurations;
The learning means performs the same learning on the M neural networks,
A neural network system comprising selection means for selecting N neural networks having high estimation accuracy from the M neural networks having been learned.
内部構成が異なるM個(MはNより大)のニューラルネットワークを生成するニューラルネットワーク生成ステップと、
前記M個のニューラルネットワークに同一の学習を行う学習ステップと、
学習が終了した前記M個のニューラルネットワークから推定精度が高いN個のニューラルネットワークを選択する選択ステップと、
前記N個のニューラルネットワークに判定すべきデータを入力する判定データ入力ステップと、
前記判定すべきデータに対する前記N個のニューラルネットワークの判定結果から特定の判定の割合を算出する確度算出ステップと、
前記確度算出ステップが算出した値を前記特定の判定の確度として出力する出力ステップとからなることを特徴とするニューラルネットワークの制御方法。
A neural network generation step for generating M neural networks having different internal configurations (M is greater than N);
A learning step for performing the same learning on the M neural networks;
A selection step of selecting N neural networks with high estimation accuracy from the M neural networks that have been learned;
A determination data input step of inputting data to be determined to the N neural networks;
A probability calculating step of calculating a specific determination ratio from the determination results of the N neural networks with respect to the data to be determined;
A method for controlling a neural network, comprising: an output step for outputting the value calculated in the accuracy calculation step as the accuracy of the specific determination.
内部構成が異なるM個(MはNより大)のニューラルネットワークを生成するニューラルネットワーク生成ステップと、
前記M個のニューラルネットワークに同一の学習を行う学習ステップと、
学習が終了した前記M個のニューラルネットワークから推定精度が高いN個のニューラルネットワークを選択する選択ステップと、
前記N個のニューラルネットワークに判定すべきデータを入力する判定データ入力ステップと、
前記判定すべきデータに対する前記N個のニューラルネットワークの判定結果から特定の判定の割合を算出する確度算出ステップと、
前記確度算出ステップが算出した値を前記特定の判定の確度として出力する出力ステップをコンピュータに実行させることを特徴とするニューラルネットワークの制御プログラム。
A neural network generation step for generating M neural networks having different internal configurations (M is greater than N);
A learning step for performing the same learning on the M neural networks;
A selection step of selecting N neural networks with high estimation accuracy from the M neural networks that have been learned;
A determination data input step of inputting data to be determined to the N neural networks;
A probability calculating step of calculating a specific determination ratio from the determination results of the N neural networks with respect to the data to be determined;
A control program for a neural network, which causes a computer to execute an output step of outputting the value calculated in the accuracy calculation step as the accuracy of the specific determination.
JP2010153765A 2010-07-06 2010-07-06 Neural network system, construction method of neural network system and control program of neural network system Withdrawn JP2012018450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010153765A JP2012018450A (en) 2010-07-06 2010-07-06 Neural network system, construction method of neural network system and control program of neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010153765A JP2012018450A (en) 2010-07-06 2010-07-06 Neural network system, construction method of neural network system and control program of neural network system

Publications (1)

Publication Number Publication Date
JP2012018450A true JP2012018450A (en) 2012-01-26

Family

ID=45603675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010153765A Withdrawn JP2012018450A (en) 2010-07-06 2010-07-06 Neural network system, construction method of neural network system and control program of neural network system

Country Status (1)

Country Link
JP (1) JP2012018450A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013248329A (en) * 2012-06-04 2013-12-12 Fujitsu Ltd Health condition determination method and health condition determination system
JP2016066269A (en) * 2014-09-25 2016-04-28 Kddi株式会社 Clustering device, method and program
KR101855360B1 (en) * 2017-12-13 2018-05-09 한국과학기술정보연구원 Neural network configuration method and apparatus for learning optimization of neural network
JP2019003267A (en) * 2017-06-12 2019-01-10 株式会社大塚商会 Ai service use supporting system
JP2019028950A (en) * 2017-08-03 2019-02-21 株式会社大塚商会 AI service use support system
JP2019049916A (en) * 2017-09-12 2019-03-28 株式会社アクセル Processing device and inference processing method
KR20190048274A (en) * 2017-10-31 2019-05-09 전자부품연구원 Multiple Neural Network Configuration Method for Generating Multiple Analog Control Variables
JP2019106112A (en) * 2017-12-14 2019-06-27 オムロン株式会社 Information processing apparatus, identification system, setting method, and program
CN110059799A (en) * 2018-01-19 2019-07-26 国际商业机器公司 The generation of neural network comprising middle layer background
JP2019159693A (en) * 2018-03-12 2019-09-19 Kddi株式会社 Information processing device, information processing terminal, and program
CN110610234A (en) * 2018-06-14 2019-12-24 国际商业机器公司 Integrate external applications into deep neural networks
JP2020060803A (en) * 2018-10-04 2020-04-16 株式会社カネカ Health information processing method, health information processing apparatus, computer program, and learning model
JP2020123384A (en) * 2020-04-17 2020-08-13 株式会社アクセル Processing device and inference processing method
CN113169927A (en) * 2018-12-12 2021-07-23 株式会社自动网络技术研究所 Determination device, determination program, determination method, and method for generating neural network model
JP2023098890A (en) * 2019-03-28 2023-07-11 京セラ株式会社 Estimation device, estimation system, control program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013248329A (en) * 2012-06-04 2013-12-12 Fujitsu Ltd Health condition determination method and health condition determination system
JP2016066269A (en) * 2014-09-25 2016-04-28 Kddi株式会社 Clustering device, method and program
JP2019003267A (en) * 2017-06-12 2019-01-10 株式会社大塚商会 Ai service use supporting system
JP2019028950A (en) * 2017-08-03 2019-02-21 株式会社大塚商会 AI service use support system
JP2019049916A (en) * 2017-09-12 2019-03-28 株式会社アクセル Processing device and inference processing method
KR20190048274A (en) * 2017-10-31 2019-05-09 전자부품연구원 Multiple Neural Network Configuration Method for Generating Multiple Analog Control Variables
KR102527605B1 (en) 2017-10-31 2023-05-02 한국전자기술연구원 Multiple Neural Network Configuration Method for Generating Multiple Analog Control Variables
KR101855360B1 (en) * 2017-12-13 2018-05-09 한국과학기술정보연구원 Neural network configuration method and apparatus for learning optimization of neural network
JP6992475B2 (en) 2017-12-14 2022-01-13 オムロン株式会社 Information processing equipment, identification system, setting method and program
JP2019106112A (en) * 2017-12-14 2019-06-27 オムロン株式会社 Information processing apparatus, identification system, setting method, and program
CN110059799A (en) * 2018-01-19 2019-07-26 国际商业机器公司 The generation of neural network comprising middle layer background
US12182711B2 (en) 2018-01-19 2024-12-31 International Business Machines Corporation Generation of neural network containing middle layer background
US12020160B2 (en) 2018-01-19 2024-06-25 International Business Machines Corporation Generation of neural network containing middle layer background
JP2019159693A (en) * 2018-03-12 2019-09-19 Kddi株式会社 Information processing device, information processing terminal, and program
CN110610234A (en) * 2018-06-14 2019-12-24 国际商业机器公司 Integrate external applications into deep neural networks
CN110610234B (en) * 2018-06-14 2023-04-07 国际商业机器公司 Integrating external applications into deep neural networks
JP7190859B2 (en) 2018-10-04 2022-12-16 株式会社カネカ Health information processing method, health information processing device, computer program, and learning model
JP2020060803A (en) * 2018-10-04 2020-04-16 株式会社カネカ Health information processing method, health information processing apparatus, computer program, and learning model
CN113169927B (en) * 2018-12-12 2023-01-03 株式会社自动网络技术研究所 Determination device, determination program, determination method, and method for generating neural network model
CN113169927A (en) * 2018-12-12 2021-07-23 株式会社自动网络技术研究所 Determination device, determination program, determination method, and method for generating neural network model
JP2023098890A (en) * 2019-03-28 2023-07-11 京セラ株式会社 Estimation device, estimation system, control program
JP7454724B2 (en) 2019-03-28 2024-03-22 京セラ株式会社 Estimation device, estimation system, control program
JP2020123384A (en) * 2020-04-17 2020-08-13 株式会社アクセル Processing device and inference processing method

Similar Documents

Publication Publication Date Title
JP2012018450A (en) Neural network system, construction method of neural network system and control program of neural network system
Chen et al. Early prediction of coronary artery disease (CAD) by machine learning method-a comparative study
KR102024375B1 (en) Apparatus and method for predicting disease risk of chronic kidney disease
Orphanou et al. DBN-extended: a dynamic Bayesian network model extended with temporal abstractions for coronary heart disease prognosis
CN107743630A (en) Meet the possibility of condition using Recognition with Recurrent Neural Network prediction
Mokeddem et al. Supervised feature selection for diagnosis of coronary artery disease based on genetic algorithm
Lafta et al. An intelligent recommender system based on short-term risk prediction for heart disease patients
Akula et al. Supervised machine learning based ensemble model for accurate prediction of type 2 diabetes
JP7173482B2 (en) Health care data analysis system, health care data analysis method and health care data analysis program
WO2020045245A1 (en) State transition prediction device, and device, method, and program for learning predictive model
US20200058399A1 (en) Control method and reinforcement learning for medical system
Kumar et al. Identification of cardiac patients based on the medical conditions using machine learning models
Ashrafi et al. Effect of a process mining based pre-processing step in prediction of the critical health outcomes
Berchialla et al. Integrating stress‐related ventricular functional and angiographic data in preventive cardiology: a unified approach implementing a Bayesian network
Shuvo An early detection of heart disease using machine learning (recurrent neural network): ML research on heart disease prediction
Fidele et al. Artificial Neural Network as a Clinical Decision-Supporting
Sinha et al. CARDPSoML: Comparative approach to analyze and predict cardiovascular disease based on medical report data and feature fusion approach
de Lucena et al. Predictive Performance of Machine Learning Algorithms Regarding Obesity Levels Based on Physical Activity and Nutritional Habits: A Comprehensive Analysis
Mischie et al. Artificial neural networks for diagnosis of coronary heart disease
Haynatzki et al. Building machine learning models to improve hypertension diagnosis
Putzel et al. Dynamic survival analysis for ehr data with personalized parametric distributions
KR20260014812A (en) Fall accident extrinsic codes prediction system and method thereof using an ai model
US20250099000A1 (en) Determining likelihood of kidney failure
You et al. A nonparametric control chart for dynamic disease risk monitoring
Zulkifli et al. Implementation of a Diabetes Status Prediction Application Using a Machine Learning Algorithm Approach

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131001