[go: up one dir, main page]

JPH0683795A - Recognition or diagnosis method - Google Patents

Recognition or diagnosis method

Info

Publication number
JPH0683795A
JPH0683795A JP4230859A JP23085992A JPH0683795A JP H0683795 A JPH0683795 A JP H0683795A JP 4230859 A JP4230859 A JP 4230859A JP 23085992 A JP23085992 A JP 23085992A JP H0683795 A JPH0683795 A JP H0683795A
Authority
JP
Japan
Prior art keywords
output
input
layer
intermediate layer
case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4230859A
Other languages
Japanese (ja)
Inventor
Isao Takahashi
高橋  功
Fumimasa Endo
奎将 遠藤
Tokio Yamagiwa
時生 山極
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4230859A priority Critical patent/JPH0683795A/en
Priority to US08/111,472 priority patent/US5627941A/en
Priority to US08/214,769 priority patent/US5598509A/en
Publication of JPH0683795A publication Critical patent/JPH0683795A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】ニューラルネットワークの構成及び結合係数を
解析的に求め、能率の良い認識,診断方法を提供するこ
と。 【構成】出力層以外の例えば、最下段には出力が常に1
となる、しきい値修正用のニューロンを設ける。中間層
の層数は、2層以下であり、各ケース毎に総和を求めた
後に、入力する。出力層の各出力毎について、入力の総
和の大きい順に、各ケースの入力総和と教師データの関
係を表にし、総和が最大の教師データの値と教師データ
の変化の回数に着目する。これらに基づいて、ニューラ
ルネットワークの構成(中間層の層数,そのニューロン
数)を定めることができ、各結合係数もその表を用いて
解析的に計算できる。教師データの変化回数が奇数の場
合は、第2の中間層を経由しないものも現われる。 【効果】計算時間を短縮でき、規模によらず確実な診断
ができる。
(57) [Summary] [Objective] To provide a highly efficient recognition and diagnosis method by analytically obtaining the configuration and coupling coefficient of a neural network. [Structure] For example, except the output layer, the output is always 1 at the bottom.
Then, a neuron for threshold correction is provided. The number of intermediate layers is two or less, and is input after the total is calculated for each case. For each output of the output layer, the relationship between the input sum and the teacher data in each case is tabulated in the descending order of the input sum, and the value of the teacher data having the maximum sum and the number of changes of the teacher data are focused. Based on these, the configuration of the neural network (the number of intermediate layers and the number of neurons thereof) can be determined, and each coupling coefficient can be analytically calculated using the table. When the number of changes in the teacher data is odd, some do not pass through the second intermediate layer. [Effect] The calculation time can be shortened, and reliable diagnosis can be performed regardless of the scale.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は認識又は診断方法に係
り、特に、GIS(Gas Insulated Switchgear)や変圧器
等、電力回路の各種の構成要素の過去の運転情報を利用
して、現在の使用状態における異常の有無を診断するよ
うな、主としてニューラルネットワークを利用した認識
又は診断方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a recognition or diagnosis method, and more particularly to a present use method utilizing past operation information of various components of a power circuit such as a GIS (Gas Insulated Switchgear) and a transformer. The present invention mainly relates to a recognition or diagnosis method that uses a neural network to diagnose whether or not there is an abnormality in a state.

【0002】[0002]

【従来の技術】従来、例えば、特開平2−297074 号公報
に記載されているように、ニューラルネットワークを用
いて設備の異常を診断する方法が提案されている。その
方法は、あらかじめ多層構造を有するニューラルネット
ワークの入力層に、各種設備の状態を入力して学習させ
ておき、諸設備の新たな状態が入力された場合、先の学
習結果に基づいてその設備が正常であるか否かを判別
し、異常であると判断したときは、その原因を推定する
ものである。
2. Description of the Related Art Conventionally, as disclosed in, for example, Japanese Patent Application Laid-Open No. 2-297074, a method of diagnosing an abnormality of equipment using a neural network has been proposed. The method is to input the state of various equipments to the input layer of the neural network having a multi-layered structure in advance for learning, and when new states of various equipments are input, the equipments are to be learned based on the previous learning result. Is determined to be normal, and when it is determined to be abnormal, the cause thereof is estimated.

【0003】また、特開平2−272326 号公報では、回転
機の機械的な振動,音響的振動,電気的振動等に関し
て、詳細な記述がなされている。更にまた、特開平2−1
00757号公報では、並列ニューラルネットワークの学習
方式について提案されている。この中で、学習法とし
て、逆伝搬(バックプロパゲーション)法が有効になり
つつある。この従来の方式では、誤差を極小にする点し
か見当らず、一度局所的な極小に落ちこむと学習が進ま
なくなること、学習するデータの個数が多くなると、学
習の精度が非常に落ちてしまう等の欠点が指摘されてい
る。その改善案として、一つ以上のニューラルネットワ
ークを並列に接続して順次学習させることにより、学習
の効率と精度をあげる案が提案されている。
Further, in Japanese Patent Laid-Open No. 2-272326, a detailed description is given regarding mechanical vibration, acoustic vibration, electric vibration, etc. of a rotating machine. Furthermore, JP-A 2-1
In 00757, a learning method for a parallel neural network is proposed. Among them, the back propagation method is becoming effective as a learning method. In this conventional method, only the point of minimizing the error is found, and once it falls to the local minimum, the learning does not proceed. A flaw is pointed out. As an improvement plan, there has been proposed a plan to improve learning efficiency and accuracy by connecting one or more neural networks in parallel and sequentially learning.

【0004】[0004]

【発明が解決しようとする課題】図2は、ニューラルネ
ットワークの従来例の一例を示すものである。入力層と
出力層の間に、任意の層数の中間層が設けられている
(図示は一層の例)。入力層には、X1,X2,X3・・
・・・Xnが入力される。図2では、そのほかに、ニュ
ーロンからの出力調整用に入力の一つとして常に1も入
力される。これらの入力に重み(結合係数)W1,W2,W
3 ・・・Wn,Wn+1を乗じた値を、例えば、中間層の第
一のニューロンへの入力U1 とする。そのニューロンか
らの出力をV1とする。U1,V1は、例えば、表1に記
載のように計算される。
FIG. 2 shows an example of a conventional neural network. An intermediate layer of an arbitrary number of layers is provided between the input layer and the output layer (illustration is a single layer example). In the input layer, X 1 , X 2 , X 3 ...
... Xn is input. In FIG. 2, besides that, 1 is always input as one of the inputs for adjusting the output from the neuron. Weights (coupling coefficients) W 1 , W 2 , W for these inputs
A value obtained by multiplying 3 ... W n and W n + 1 is, for example, an input U 1 to the first neuron in the intermediate layer. The output from the neuron is V 1 . U 1 and V 1 are calculated as described in Table 1, for example.

【0005】[0005]

【表1】 [Table 1]

【0006】他の中間層ニューロンや出力層ニューロン
の入力や出力に関しても、同様な計算式が成り立つ。特
に、各中間層のいずれか1つ(図示したものでは最下段
のハッチングしたもの)だけは、出力調整用の入力1だ
けに結合し、あらかじめ出力が1になるように結合係数
が与えられている。
Similar calculation formulas hold for inputs and outputs of other middle layer neurons and output layer neurons. In particular, only one of the intermediate layers (the one hatched at the bottom in the figure) is coupled only to the input 1 for output adjustment, and the coupling coefficient is given in advance so that the output becomes 1. There is.

【0007】このような従来のニューラルネットワーク
では、学習という操作が不可欠である。学習とは、ある
入力データを入力したときに、そのデータに対応してあ
らかじめ定めた教師データと称するデータに近似した計
算値が出力層から出力されるように、各ニューロン間の
結合係数を、繰り返し計算によって求めることをいう。
例えば、教師データと計算出力の差の自乗和の0.5 倍
を誤差として、これが小さくなるように、少しずつ結合
係数を修正する計算を繰返すことを言う。学習が良好に
進行すれば、誤差は小さくなるが、場合によっては、こ
の誤差が小さくならず、多数回学習しても、充分な精度
で計算出力が得られない場合もあり、このような場合に
は、局所的な極小値(local minimum )に陥った等とい
われることもある。この場合には、どのように多数回学
習しても、その極小値から抜け出すことができず、絶対
に適切な結合係数は得られない。また、仮に計算出力が
望ましい値に収束する場合でも、多数回の学習には、ニ
ューラルネットワークの規模や教師データによっては、
非常に長い時間(例えば、数時間以上)を要することも
ある。
In such a conventional neural network, an operation called learning is indispensable. Learning means that when a certain input data is input, the coupling coefficient between the neurons is changed so that the calculated value approximated to the data called the predetermined teacher data corresponding to the input data is output from the output layer. It means to obtain iterative calculation.
For example, it means that 0.5 times the sum of squares of the difference between the teacher data and the calculation output is taken as an error, and the calculation for correcting the coupling coefficient little by little is repeated to reduce this error. If learning progresses satisfactorily, the error will be small, but in some cases, this error will not be small, and even if learning is performed many times, the calculation output may not be obtained with sufficient accuracy. In some cases, it is said that the local minimum has fallen. In this case, no matter how many times learning is performed, it is not possible to escape from the minimum value, and an absolutely appropriate coupling coefficient cannot be obtained. Even if the calculated output converges to a desired value, depending on the size of the neural network and the training data, learning may be performed many times.
It may take a very long time (eg, several hours or more).

【0008】また、従来のニューラルネットワークで
は、最適な中間層の層数やそのニューロン数を決めるに
は、カット・アンド・トライが必要で、能率が悪く、改
善が望まれていた。
Further, in the conventional neural network, cut-and-try is required to determine the optimum number of intermediate layers and the number of neurons, which is inefficient and has been desired to be improved.

【0009】本発明の目的は、ニューラルネットワーク
等のようなシステムにおいて、結合係数を精度良く、ま
た、容易に得ることができる認識又は診断方法を提供す
ることにある。
It is an object of the present invention to provide a recognition or diagnosis method capable of obtaining a coupling coefficient accurately and easily in a system such as a neural network.

【0010】また、本発明の他の目的は、ニューラルネ
ットワークの適切な中間層の層数やそのニューロン数を
容易に決定することができる認識又は診断方法を提供す
ることにある。
Another object of the present invention is to provide a recognition or diagnosis method capable of easily determining the appropriate number of intermediate layers of a neural network and the number of neurons thereof.

【0011】[0011]

【課題を解決するための手段】前記目的を達成するた
め、本発明は、入力データと教師データから各ニューロ
ンの結合係数を解析的に求めるものである。
In order to achieve the above object, the present invention analytically finds the coupling coefficient of each neuron from input data and teacher data.

【0012】すなわち、本発明は、入力層,中間層及び
出力層とを有するニューラルネットワークを用いた認識
又は診断方法において、前記出力層以外には常に1を出
力する、しきい値修正用のニューロンを各一個設け、各
ケース毎の入力データについて総和を求め、前記出力層
の各出力毎に、前記入力データの各総和の大きさの順
に、対応する教師データとともに作表し、前記表の教師
データの変化回数Nと等しい数のニューロンを第1の中
間層として前記表に従って順次配置し、前記Nが奇数の
場合には、第2の中間層として、(N−1)/2個のニ
ューロンを配置して、前記第1の中間層の出力を2個ず
つ順次入力させて、前記第2の中間層の各出力を、前記
第1の中間層の出力の残り1個と共に、前記出力層の入
力にし、また、前記Nが偶数の場合には、第2の中間層
として、N/2個のニューロンを配置して、前記第1の
中間層の出力を2個ずつ順次入力させて、前記第2の中
間層の各出力を、前記出力層の入力にし、前記表におけ
る入力データの総和が最大のケースに対応する教師デー
タと、教師データが変化する前後の入力データの総和と
教師データとに着目して各部の結合係数を解析的に求め
ることを特徴とする。
That is, the present invention provides a threshold correction neuron that always outputs 1 in a region other than the output layer in a recognition or diagnosis method using a neural network having an input layer, an intermediate layer and an output layer. Is provided for each case, the sum is calculated for the input data for each case, and for each output of the output layer, in order of the size of each sum of the input data, it is created together with the corresponding teacher data. A number of neurons equal to the number of changes N of N are sequentially arranged according to the above table as the first intermediate layer, and when N is an odd number, (N-1) / 2 neurons are used as the second intermediate layer. The output of the first intermediate layer is sequentially input by two, and each output of the second intermediate layer is output together with the remaining one output of the first intermediate layer. In the input and also the Is an even number, N / 2 neurons are arranged as the second intermediate layer, and two outputs of the first intermediate layer are sequentially input to each of the second intermediate layers. The output is used as an input of the output layer, the teacher data corresponding to the case where the total sum of the input data in the table is the maximum, the total sum of the input data before and after the change of the teacher data, and the teacher data are combined to combine the respective parts. It is characterized in that the coefficient is analytically obtained.

【0013】[0013]

【作用】(1) 本発明のように解析的な方法を用いる
と、従来は必要であった繰り返し学習が不要になる。ニ
ューラルネットワークの最適な中間層の層数やそのニュ
ーロン数を予め決定できる。また、従来のような局所的
な極小値の問題も生じない。従って、データを入力して
から、ニューラルネットワークを利用する診断までの時
間を短縮できる。入力データの数や、ケース数によら
ず、本法を適用できることから、大規模なニューラルネ
ットワークの各ニューロン間の結合係数を短時間に、確
実に求められる。
(1) When the analytical method is used as in the present invention, iterative learning, which has been necessary in the past, becomes unnecessary. The optimal number of intermediate layers of the neural network and the number of neurons thereof can be determined in advance. Further, the problem of local minimum value unlike the conventional case does not occur. Therefore, the time from the input of data to the diagnosis using the neural network can be shortened. Since this method can be applied regardless of the number of input data or the number of cases, the coupling coefficient between each neuron of a large-scale neural network can be reliably obtained in a short time.

【0014】(2) 解析的な方法も併用した、繰返し
学習を利用すれば、学習時間の大幅な短縮が可能であ
る。
(2) It is possible to greatly reduce the learning time by using iterative learning, which also uses an analytical method.

【0015】(3) 本発明は、ニューラルネットワー
クではない方法にも適用でき、この場合においても、能
率の良い認識,診断が可能である。
(3) The present invention can be applied to a method other than a neural network, and even in this case, efficient recognition and diagnosis are possible.

【0016】(4) 計算回数が大幅に少なくなったの
で、例えば、経済的なbook型パソコン等でも、その
メモリー容量によっては本発明の方法で認識,診断がで
きる可能性がある。
(4) Since the number of calculations is significantly reduced, for example, even an economical book type personal computer or the like may be recognized and diagnosed by the method of the present invention depending on its memory capacity.

【0017】[0017]

【実施例】以下に述べる本発明の実施例に関する説明で
は、入力は、0〜1の任意の数値,教師データは、0ま
たは1とする。また、出力が複数ある場合には、出力の
一つ一つについて下記のように取り扱う。
In the following description of the embodiments of the present invention, it is assumed that the input is an arbitrary numerical value of 0 to 1 and the teacher data is 0 or 1. When there are multiple outputs, each of the outputs is handled as follows.

【0018】まず、各入力に対する結合係数W1、W2
3・・・Wnは、極めてまれな例外はあるが、ほとんど
大部分は、次式に示すように互いに等しいとおいて支障
のないことを見出した。(例外については、後に言及す
る。) W1=W2=W3・・・=Wn ・・・・・・(数1) しきい値修正用の入力1に対する重みWn+1 は、一般に
は別の値をとる。
First, the coupling coefficients W 1 , W 2 , and
It has been found that most of W 3 ... W n are equal to each other as shown in the following equation, although there are extremely rare exceptions. (Exceptions are mentioned later.) W 1 = W 2 = W 3 ··· = W n ······ ( number 1) the weight W n + 1 to the input 1 for threshold modification, Generally, it takes a different value.

【0019】(数1)を考えると、各ケース毎に入力の
総和を求めた後に、結合係数を乗じてよい。そこで、各
ケース毎に入力の総和を求め、例えば表2に示すように
総和の大きい順に並べ換え、対応する教師データと共に
表示する。
Considering (Equation 1), the coupling coefficient may be multiplied after the total of the inputs is calculated for each case. Therefore, the total sum of inputs is calculated for each case, and as shown in Table 2, for example, they are rearranged in the descending order of the total sum and displayed together with the corresponding teacher data.

【0020】[0020]

【表2】 [Table 2]

【0021】このような整理をして、種々考察した結
果、入力の総和が最大のもの(これをS1 と表示する)
の教師データが、0か1かによって、結合係数等を求め
る上で扱い方を変える必要があることがわかった。ここ
では、まず、S1 に対応する教師データが、0の場合か
ら述べる。
As a result of various examinations after making such an arrangement, the sum of the inputs is the maximum (displayed as S 1 ).
It was found that it is necessary to change the way of handling when obtaining the coupling coefficient and the like depending on whether the teacher data of 0 is 0 or 1. Here, first, the case where the teacher data corresponding to S 1 is 0 will be described.

【0022】説明の便宜上、簡単な例から述べる。図3
は、縦軸に、表2のS1,S2,S3,・・・,Sn を、
横軸に教師データをそれぞれ表示し、教師データが一度
だけ変化した例を示す。図3では、S1,S2の境界で教
師データが変化した場合を示しているが、当然、他の所
で変化する場合もある。この単純な変化を発生する場合
には、ニューラルネットワークに中間層は全く不要であ
り、図4に示すような簡単なもので良い。ニューラルネ
ットワークの結合係数Wa,Wbは、下記のようにして求
める。
For convenience of description, a simple example will be described. Figure 3
Is the vertical axis of S 1 , S 2 , S 3 , ..., S n in Table 2,
The teacher data is displayed on the horizontal axis, and an example in which the teacher data changes only once is shown. Although FIG. 3 shows the case where the teacher data changes at the boundary between S 1 and S 2 , it may naturally change at other places. When this simple change is generated, the neural network does not need any intermediate layer, and a simple one as shown in FIG. 4 may be used. The coupling coefficients W a and W b of the neural network are obtained as follows.

【0023】表2の教師データの変化に着目し、表に点
線で図示した教師データが変化する境界の直前、直後の
入力総和、即ち、S1,S2を用いて次の(数2),(数
3)の二元連立1次方程式をたてる。
Focusing on the change in the teacher data in Table 2 , using the input sums immediately before and after the boundary where the teacher data shown by the dotted line in the table changes, that is, S 1 and S 2 , the following (Equation 2) , (Equation 3) Creates a binary simultaneous linear equation.

【0024】 S1・Wa+1・Wb=−10 ・・・・・(数2) S2・Wa+1・Wb=10 ・・・・・(数3) 左辺の値は、出力層へのケース1′,ケース2′の入力
であり、右辺の値は、表1で計算した出力が、実用上0
または1とみなせる値が得られるような入力の値であ
る。(−10の場合には、1/(1+exp(−(−1
0)))≒0となり、10の場合には、1/(1+exp
(−(10)))≒1となる。)この連立方程式を解く
と、S1−S2≠0として、 Wa=−20/(S1−S2) ・・・・・・(数4) Wb=10+20S2/(S1−S2) ・・・・(数5) Waは負、Wbは正の値であるから、もしS′がS2 より
小さい場合には、次の不等式が成り立つ。
S 1 · W a + 1 · W b = −10 (Equation 2) S 2 · W a + 1 · W b = 10 (Equation 3) The value on the left side is , The input of Case 1'and Case 2'to the output layer, and the value on the right side is the output calculated in Table 1 is practically 0.
Alternatively, the input value is such that a value that can be regarded as 1 is obtained. In the case of (-10, 1 / (1 + exp (-(-1
0))) ≈ 0, and if 10 then 1 / (1 + exp
(-(10))) ≈1. ) When this simultaneous equation is solved, S 1 −S 2 ≠ 0, and W a = −20 / (S 1 −S 2 ) ... (Equation 4) W b = 10 + 20S 2 / (S 1 − S 2 ) ... (Equation 5) Since W a has a negative value and W b has a positive value, the following inequality holds if S ′ is smaller than S 2 .

【0025】 S′・Wa+1・Wb>10 ・・・・(数6) 従って、図3のS3以下の出力は、S2の場合よりも、よ
り1に近い、実用上1とみなせる値が得られる。(数
2),(数3)のような連立方程式の一組が、教師データ
の変化一回に対応することがわかる。
S ′ · W a + 1 · W b > 10 (Equation 6) Therefore, the output of S 3 or less in FIG. 3 is closer to 1 than that of S 2 and practically 1 A value that can be regarded as It can be seen that a set of simultaneous equations such as (Equation 2) and (Equation 3) corresponds to one change of the teacher data.

【0026】次に、図5の折線50のように教師データ
が0から始まり、1を経て再び0に戻る場合を考える。
教師データが2回変化する場合である。折線51,折線
52は前記図3の場合とほぼ同様にして発生できるの
で、これらを組み合わせて折線50を合成することを考
える。折線51,折線52の両者が1の時にのみ、出力
が1となればよいので、結局、両者をAND回路に接続
すればよいことがわかる。AND回路の出力は、両者か
らの入力が1の時にのみ出力が1となり、折線53が得
られるが、これは折線50に一致する。
Next, consider the case where the teacher data starts from 0 and then returns to 0 again through 1 as shown by the broken line 50 in FIG.
This is the case where the teacher data changes twice. The polygonal line 51 and the polygonal line 52 can be generated almost in the same manner as in the case of FIG. Only when both of the broken line 51 and the broken line 52 are 1, the output needs to be 1. Therefore, it is understood that both of them should be connected to the AND circuit in the end. The output of the AND circuit becomes 1 only when the input from both is 1 and the polygonal line 53 is obtained, which coincides with the polygonal line 50.

【0027】このニューラルネットワークを図6に示
す。この場合、入力層と中間層の結合係数は、それぞれ
教師データの変化の直前,直後に関する(数2),(数
3)とほぼ同様な連立方程式を2回解くことによって得
られる。この場合は、教師データが0から1へ変化する
場合と、その後、1から0へ変化する場合についても考
慮することになる。
This neural network is shown in FIG. In this case, the coupling coefficients of the input layer and the intermediate layer are obtained by solving twice the simultaneous equations similar to (Equation 2) and (Equation 3) immediately before and after the change of the teacher data, respectively. In this case, the case where the teacher data changes from 0 to 1 and the case where the teacher data changes from 1 to 0 after that will also be considered.

【0028】中間層の最下段にハッチングして示すニュ
ーロンは、しきい値修正用であり入力層−中間層間の結
合係数として、図示のごとく、例えば20を指定すれ
ば、その出力は常に実用上1となる。また、中間層と出
力層との間の結合(AND回路)の係数は、同様な方法で
簡単に求まり、例えば、図6に示すように20,20及
び−30でよい。−30はしきい値変更用である。図6
に同時に示した(OR)及び(−10)の表示について
は後に述べる。
The neuron hatched at the bottom of the intermediate layer is for threshold correction, and if the coupling coefficient between the input layer and the intermediate layer is designated as shown in FIG. It becomes 1. Further, the coefficient of the coupling (AND circuit) between the intermediate layer and the output layer can be easily obtained by the same method, and may be 20, 20, and −30 as shown in FIG. 6, for example. -30 is for changing the threshold value. Figure 6
The display of (OR) and (-10) shown at the same time will be described later.

【0029】次に、図7の折線70のように、教師デー
タが3回変化する場合を考える。まず、前記と同様な方
法で折線71,折線72を発生できるので、これらのA
NDをとって折線73を発生する。次に、折線74を折
線71等と同様な方法で発生し、折線73,折線74を
OR回路で結合すれば、その少なくとも一方が1の時
に、出力が1となるので、折線75が得られる。これは
折線70に一致する。
Next, consider the case where the teacher data changes three times as indicated by the broken line 70 in FIG. First, since the broken line 71 and the broken line 72 can be generated by the same method as described above, these A
ND is taken to generate a broken line 73. Next, if the polygonal line 74 is generated in the same manner as the polygonal line 71 and the like, and the polygonal lines 73 and 74 are connected by an OR circuit, the output becomes 1 when at least one of them is 1, so the polygonal line 75 is obtained. . This corresponds to the polygonal line 70.

【0030】このニューラルネットワークを、図8に示
す。この場合も、中間層の最下段のハッチングをしたニ
ューロンはしきい値修正用であり、その出力は常に1で
ある。第1中間層の上から3番目の出力は、AND回路
を経由しないで直接に出力層に入力される。
This neural network is shown in FIG. Also in this case, the hatched neuron at the bottom of the intermediate layer is for threshold value correction, and its output is always 1. The third output from the top of the first intermediate layer is directly input to the output layer without passing through the AND circuit.

【0031】また、OR回路の結合係数も、同様な方法
で簡単に求まり、出力層への入力の少なくとも一方が1
の場合に、1を出力できるように、図7に示すように例
えば、20,20及び−10でよい。−10はしきい値
変更用である。図7の中間層に併記した(OR)や(−
10)及び出力層の(AND)と(−30)について
は、後に述べる。
Further, the coupling coefficient of the OR circuit can be easily obtained by the same method, and at least one of the inputs to the output layer is 1.
In this case, as shown in FIG. 7, for example, 20, 20 and −10 may be output so that 1 can be output. -10 is for changing the threshold value. (OR) and (-
10) and (AND) and (-30) of the output layer will be described later.

【0032】教師データの変化回数を増しながら、同様
な解析を続けていくと表3が得られる。
Table 3 is obtained by continuing the same analysis while increasing the number of changes of the teacher data.

【0033】[0033]

【表3】 [Table 3]

【0034】表3は、教師データの変化回数が1〜7ま
でと、一般的な数n1 について、第1中間層のニューロ
ン数n2、第2中間層であるAND回路の個数n3及び出
力層となるOR回路の個数n4 を示す(ただし、中間層
には、しきい値修正用のニューロンは、別途考慮す
る)。表に示すように、第1の中間層のニューロン数は
教師データの変化回数n1に一致する。ただし、教師デ
ータの変化回数n1が1の場合には、第1中間層のニュ
ーロンは出力層のニューロンそのものであり、また、教
師データの変化回数n1 が2の場合には、第2中間層の
ニューロンが出力層のニューロンである。これらについ
て、中間層がないと表現するよりは、結合係数の算出法
等を考えると、表3の括弧付きで表示された数字1につ
いて、このように考えた方が便利である。先にも述べた
ように、出力層からの出力が複数ある場合には、以上述
べた計算手法を繰り返す。この解析によれば、中間層
は、最大でも2層まで考慮すればよいことが明らかにな
った。
Table 3 shows that the number of changes in the teacher data is from 1 to 7, the general number n 1 is the number n 2 of neurons in the first intermediate layer, the number n 3 of AND circuits in the second intermediate layer, and The number n 4 of OR circuits to be the output layer is shown (however, in the intermediate layer, a threshold value correcting neuron is considered separately). As shown in the table, the number of neurons in the first intermediate layer matches the number of changes n 1 of the teacher data. However, when the number of changes n 1 of the teacher data is 1, the neuron of the first intermediate layer is the neuron of the output layer itself, and when the number of changes n 1 of the teacher data is 2, the second intermediate layer The layer neurons are the output layer neurons. Regarding these, considering the calculation method of the coupling coefficient, etc., rather than expressing that there is no intermediate layer, it is more convenient to think in this way regarding the number 1 shown in brackets in Table 3. As described above, when there are multiple outputs from the output layer, the calculation method described above is repeated. According to this analysis, it has become clear that at most two intermediate layers may be considered.

【0035】以上をより一般的に、教師データの変化回
数が比較的多い場合について図示すれば、本発明のニュ
ーラルネットワークの構成は、図1のようになる。教師
データの変化回数が奇数の時には、点線で図示したよう
に、第1の中間層から出力層に直接入力され第2の中間
層を経由しないものが現われる。各部の結合係数は前記
のようにして求める。
If the above is described more generally for the case where the number of changes in the teacher data is relatively large, the configuration of the neural network of the present invention is as shown in FIG. When the number of changes of the teacher data is odd, as shown by the dotted line, the one directly input from the first intermediate layer to the output layer and not passing through the second intermediate layer appears. The coupling coefficient of each part is obtained as described above.

【0036】次に、例えば表4に示すように、入力の総
和の最大なものS1に対応する教師データが、1の場合
について述べる。
Next, for example, as shown in Table 4, a case will be described in which the teacher data corresponding to the maximum input sum S 1 is 1.

【0037】[0037]

【表4】 [Table 4]

【0038】教師データの変化が1回の例を図9に示
す。図9では、S1,S2の間で教師データが変化した例
を示しているが、当然、一般には、別のところで変化す
ることもあり得る。この場合のニューラルネットワーク
は中間層が不要であり、図4と同様なものでよいが結合
係数は異なる。結合係数は(数2),(数3)と同様な連
立方程式をたてて求めるが、出力を1,0にするために
右辺の符号が変わる。
FIG. 9 shows an example in which the teacher data changes once. Although FIG. 9 shows an example in which the teacher data changes between S 1 and S 2 , in general, it may change in another place. The neural network in this case does not need an intermediate layer and may be the same as that in FIG. 4, but the coupling coefficient is different. The coupling coefficient is obtained by constructing the simultaneous equations similar to (Equation 2) and (Equation 3), but the sign of the right side is changed so that the output becomes 1,0.

【0039】次に、図10は、折線100に示すよう
に、教師データが2回変化する場合である。まず、折線
101,折線102を先の説明と同様な方法で発生でき
るから、これを用いて折線100を合成する方法を工夫
する。折線101,折線102の少なくとも一方が、1
の時に、1を出力できればよい。結局、両者をOR回路
で結合すればよい。この場合のニューラルネットワーク
は、図6とほぼ同様であるが、出力層はANDではなく
OR回路として機能するように、しきい値修正用の結合
係数を、−30から、例えば、−10に変更する。
Next, FIG. 10 shows a case where the teacher data changes twice, as shown by the broken line 100. First, the polygonal line 101 and the polygonal line 102 can be generated by the same method as that described above. Therefore, a method of synthesizing the polygonal line 100 by using this is devised. At least one of the broken line 101 and the broken line 102 is 1
At the time of, 1 may be output. After all, both should be connected by the OR circuit. The neural network in this case is almost the same as that in FIG. 6, but the coupling coefficient for threshold value correction is changed from −30 to, for example, −10 so that the output layer functions as an OR circuit rather than an AND circuit. To do.

【0040】次に、図11は、折線110に示すよう
に、教師データが3回変化する場合である。この場合
も、折線111,折線112を先の説明と同様な方法で
発生し、これのORをとって折線113を得る。次に折
線111と同様な方法で、折線114を発生する。最後
に折線113と折線114をAND回路で結合すれば、
折線115が得られる。これは折線110に一致する。
この場合のニューラルネットワークは、図8とほぼ同様
であるが、第2の中間層にはOR回路を配置し、出力層
はAND回路として機能するように、各々のしきい値修
正用の結合係数を変更する。
Next, FIG. 11 shows a case where the teacher data changes three times, as indicated by the broken line 110. Also in this case, the polygonal line 111 and the polygonal line 112 are generated by the same method as described above, and the OR of the polygonal line 111 and the polygonal line 112 is obtained to obtain the polygonal line 113. Next, the polygonal line 114 is generated in the same manner as the polygonal line 111. Finally, if the broken line 113 and the broken line 114 are connected by an AND circuit,
A fold line 115 is obtained. This corresponds to the polygonal line 110.
The neural network in this case is almost the same as that shown in FIG. 8, except that an OR circuit is arranged in the second intermediate layer and the output layer functions as an AND circuit so that the coupling coefficient for each threshold correction is adjusted. To change.

【0041】次に、教師データの変化回数を増して解析
した結果を、まとめると表5が得られる。
Next, Table 5 is obtained by summarizing the results of analysis by increasing the number of changes of the teacher data.

【0042】[0042]

【表5】 [Table 5]

【0043】表5は、教師データの変化回数が、1〜7
までと、一般的な数n5 について、第1中間層のニュー
ロン数n6 、第2中間層のニューロン数であるOR回路
の個数n7及び出力層となるAND回路の個数n8を示
す。表3の場合と同様に、中間層に関しては、しきい値
修正用のニューロンを別途考慮すると共に、括弧付きで
表示された数字1は出力層の出力を兼ねる。第3表と第
5表を比較すると、ANDとORが入れ代わっていること
がわかる。この場合も、中間層は最大でも2層まで考慮
すればよい。
Table 5 shows that the number of changes in the teacher data is 1 to 7
Up to and including the general number n 5 , the number n 6 of neurons in the first intermediate layer, the number n 7 of OR circuits that is the number of neurons in the second intermediate layer, and the number n 8 of AND circuits as output layers are shown. As in the case of Table 3, regarding the intermediate layer, the neuron for threshold value correction is separately considered, and the numeral 1 displayed in parentheses also serves as the output of the output layer. Comparing Tables 3 and 5 shows that AND and OR are interchanged. Also in this case, the maximum number of intermediate layers may be two.

【0044】以上をより一般的に、教師データの変化回
数が比較的多い場合について図示すれば、ニューラルネ
ットワークの構成は、図1と類似したものになる。教師
データの変化回数が奇数の時には、この場合も点線で図
示したように、第1の中間層から出力層に直接入力され
て、第2の中間層を経由しないものが現われる。ただ
し、第2の中間層はOR回路、出力層はAND回路とな
る。各部の結合係数の計算法は前記の場合とほぼ同様で
ある。
If the above is described more generally for the case where the number of changes of the teacher data is relatively large, the configuration of the neural network becomes similar to that of FIG. When the number of changes in the teacher data is an odd number, in this case also, as shown by the dotted line, the data directly input from the first intermediate layer to the output layer and not passing through the second intermediate layer appears. However, the second intermediate layer is an OR circuit and the output layer is an AND circuit. The calculation method of the coupling coefficient of each part is almost the same as the above case.

【0045】出力層に複数の出力がある場合には、各々
の出力について、今まで述べてきた手順で解析を繰り返
す。なお、各々の出力を求める際に、表2や表4に示し
た教師データ変化の境界線が共通であれば、ニューラル
ネットワークの一部が共用できるので、必要に応じてこ
の事実を利用すれば全体の構成が簡単になる可能性があ
る。
When the output layer has a plurality of outputs, the analysis is repeated for each output according to the procedure described above. In addition, when each output is obtained, if the boundary line of the teacher data change shown in Table 2 or Table 4 is common, a part of the neural network can be shared. The overall configuration may be simple.

【0046】また、(数4),(数5)において、S1とS2
が等しい場合には、これらの数式の分母が零になり不都
合なので、このような場合には、入力を単純に加算しな
いで、例えば乱数等で求めた1でない数Kiを乗じてか
ら加算する。即ち、ΣKiXiを求め、それらを表2,表4
のS1,S2,S3,・・・Snと同様に扱う。このように
すれば、複数のケースの入力が全く同じでない限り、
(数4),(数5)等の分母が零になることはほとんどなく
なる。もし、それでも(数4),(数5)の分母が零になる
場合には、再び別の乱数を求める操作を繰り返すことが
できる。更に、先の説明から明らかなように、前記(数
4),(数5)のような数式の分母が零になることが問題
になるのは、例えばS1とS2が等しくて、かつそれらに
対応する教師データが異なる場合だけである。S1とS2
が等しくても、それらに対応する教師データが等しい場
合には、結合係数の計算に使用されることがないから、
問題にはならない。
Further, in (Equation 4) and (Equation 5), S 1 and S 2
When Eq. Is equal, the denominator of these mathematical expressions becomes zero, which is inconvenient. In such a case, the inputs are not simply added, but are multiplied by a number Ki that is not 1 obtained by, for example, a random number, and then added. That is, ΣKiXi is obtained and they are shown in Table 2 and Table 4
Of S 1, S 2, S 3 , treated in the same manner as · · · S n. This way, unless the inputs in multiple cases are exactly the same,
The denominators of (Equation 4) and (Equation 5) almost never become zero. If the denominators of (Equation 4) and (Equation 5) are still zero, the operation of obtaining another random number can be repeated again. Further, as is apparent from the above description, the problem that the denominator of the mathematical expressions such as (Equation 4) and (Equation 5) becomes zero is that S 1 and S 2 are equal, and Only when the teacher data corresponding to them differ. S 1 and S 2
, But if the teacher data corresponding to them are equal, they are not used in the calculation of the coupling coefficient.
It doesn't matter.

【0047】従って、より一般的に表現すれば表2,表
4等では単純なΣXiはなく、例えば乱数等として求め
た数値Kiを用いて、ΣKiXiを求め、以上説明した
ように計算を進めればよい。この場合、各入力に対する
重みは、KiWiとなる。
Therefore, in a more general expression, there is no simple ΣXi in Tables 2 and 4, etc., and ΣKiXi is obtained by using the numerical value Ki obtained as a random number or the like, and the calculation proceeds as described above. Good. In this case, the weight for each input is KiWi.

【0048】仮りに、S1′とS3′が等しく、かつそれ
らに対応する教師データが等しかったとする。この場合
に、大きさの順序がS1′とS3′の間にあって教師デー
タがS1′,S3′の場合と等しい、入力の総和S2′ が
あったとする。この場合、以上の計算方式から明らかな
ように、この3つの教師データの間では教師データの変
化はないから、S2′ は結合係数の計算に使用されるこ
とがない。従って、S2′ のようなデータは診断用のデ
ータとして存在したり、新たに追加する価値がないこと
がわかる。メモリ節約のためにこれを除去しても差し支
えない。新たに追加した教師データが、前記の教師デー
タの変化の境界を変える場合には、追加するだけの価値
がある。
It is assumed that S 1 ′ and S 3 ′ are equal and the teacher data corresponding to them are equal. In this case, it is assumed that there is a total sum S 2 ′ of inputs which is equal to the case where the order of magnitude is between S 1 ′ and S 3 ′ and the teacher data is S 1 ′ and S 3 ′. In this case, as is apparent from the above calculation method, since there is no change in the teacher data among the three teacher data, S 2 ′ is not used for calculating the coupling coefficient. Therefore, it can be seen that data such as S 2 ′ does not exist as diagnostic data or is worth adding. You can remove it to save memory. When the newly added teacher data changes the boundary of the change of the teacher data, it is worth adding.

【0049】上述の本発明の実施例によれば、次のよう
な効果がある。
According to the above-mentioned embodiment of the present invention, the following effects can be obtained.

【0050】(1) 従来は必要であった、繰り返し学
習が不要になった。
(1) Iterative learning, which was necessary in the past, is no longer necessary.

【0051】(2) 中間層の層数やそこに必要なニュ
ーロンの数、各部の結合係数を解析的に決定できるの
で、短時間で能率の良い診断ができる。
(2) Since the number of intermediate layers, the number of neurons required there, and the coupling coefficient of each part can be analytically determined, efficient diagnosis can be performed in a short time.

【0052】(3) 中間層の層数は、最大でも2層ま
でで良いことを明確にできた。
(3) It has been clarified that the number of intermediate layers may be up to two.

【0053】(4) 各部の結合係数が解析的に簡単に
求まるので、入力データや、出力データの多い、大規模
なものにも適用できる。
(4) Since the coupling coefficient of each part can be easily obtained analytically, it can be applied to a large-scale one having a lot of input data and output data.

【0054】(5) 従来の繰り返し学習が不要になっ
たので、より経済的な計算機を認識,診断に用いること
が可能になった。
(5) Since the conventional iterative learning is no longer necessary, a more economical computer can be used for recognition and diagnosis.

【0055】(6) 診断の精度を高めるために、入力
データを追加しようとする場合、入力データと教師デー
タから、追加するに値するか否かを判定でき、価値のな
いことがわかれば、追加を中止してメモリを有効に利用
することができる。
(6) When input data is to be added in order to improve the accuracy of diagnosis, it can be determined from the input data and the teacher data whether or not it is worth adding, and if it is not worthwhile, the addition is made. Can be stopped and the memory can be used effectively.

【0056】次に、本発明の他の実施例を述べる。Next, another embodiment of the present invention will be described.

【0057】(数2),(数3)では、ニューロンから近似
的に0または1を出力する例を述べたが、図12に示す
ような変換によって、0,1のかわりに、途中の演算で
はεを零に近い正の数として、εと(1−ε)の区間で各
種の演算を行い、最終の出力段階で、再び0と1の区間
の数字に戻すことも従来一部行われており、これを(数
2),(数3)の右辺に適用すれば、logを自然対数と
して、 S1・Wa+1・Wb=log(ε/(1−ε)) ・・・・(数2′) S2・Wa+1・Wb=−log(ε/(1−ε))・・・・(数3′) となる。表1の出力を実用上、0と1とで扱う方法で
は、一部に近似計算であるための誤差が入るのに対し
て、この実施例では、それがないので便利なことがあ
る。
In (Equation 2) and (Equation 3), the example in which 0 or 1 is approximately output from the neuron has been described, but by the conversion as shown in FIG. With ε as a positive number close to zero, various calculations are performed in the interval of ε and (1-ε), and at the final output stage, it is also partially performed to return to the number of 0 and 1 again. If this is applied to the right side of (Equation 2) and (Equation 3), S 1 · W a + 1 · W b = log (ε / (1-ε)) ···, where log is the natural logarithm. ··· (Equation 2 ′) S 2 · W a + 1 · W b = −log (ε / (1-ε)) ··· (Equation 3 ′) In the method of treating the output of Table 1 with 0 and 1 in practice, an error due to approximation calculation is partially included, but in this embodiment, there is no such error, which is convenient.

【0058】次に、本発明の更に異なる実施例を示す。
この実施例は、入力データを、まずケースの数と1ケー
ス当たりの入力データの個数を等しくするような、入力
個数変換演算を行ってからニューラルネットワークに利
用するものである。このような変換を行うと、後に示す
ように多数のケースを、連立方程式で簡単に扱うことが
可能になる。図13は、入力個数変換後の入力個数が元
の個数より少なくなった例である。図13の例は、1ケ
ース当たりの入力数がケースの数より多い場合に適用す
る。この場合には、適当な演算によって、入力データの
個数をケースの数と全く同じ数になるように変換する。
前記の適当な演算とは、例えば、図13に示すように同
一ケース内の複数個の入力データの和(または差,積ま
たは割算も組み合わせた演算等)をとって、それを変換
後の入力データとみなす等が考えられる。
Next, still another embodiment of the present invention will be described.
In this embodiment, the input data is first subjected to an input number conversion operation so that the number of cases is equal to the number of input data per case, and then used for the neural network. By performing such a conversion, it becomes possible to easily handle many cases by simultaneous equations, as will be shown later. FIG. 13 is an example in which the number of inputs after conversion of the number of inputs is smaller than the original number. The example of FIG. 13 is applied when the number of inputs per case is larger than the number of cases. In this case, the number of input data is converted so as to be exactly the same as the number of cases by an appropriate calculation.
The appropriate operation is, for example, as shown in FIG. 13, a sum (or an operation in which a difference, a product, or a division is also combined) of a plurality of input data in the same case is taken and the result is converted. It can be considered as input data.

【0059】図14は、入力個数変換演算をニューラル
ネットワーク自体で行う例であり、入力層と中間層の間
の結合を図示のように選択することにより、中間層から
の全出力個数を元の入力個数よりも減少させて、ケース
の数に一致させることができる。
FIG. 14 is an example in which the input number conversion calculation is performed by the neural network itself. By selecting the connection between the input layer and the intermediate layer as shown in the figure, the total number of outputs from the intermediate layer is calculated as the original value. The number of cases can be reduced to match the number of cases.

【0060】また、元の入力データの個数よりも変換後
の入力個数を増す方法としては、図15に示すように元
の入力から、例えば指数関数や正弦関数などを利用して
適当な数値を算出して利用する。
Further, as a method of increasing the number of converted inputs rather than the number of original input data, as shown in FIG. 15, an appropriate numerical value is calculated from the original input by using, for example, an exponential function or a sine function. Calculate and use.

【0061】図16は、前記の入力個数を増加させるよ
うな、演算をした後の入力をニューラルネットワークに
適用し、4ケースを扱う例を示す。図15,図16を用
いて排他的OR(Exclusive OR(XORとも略記される))
と呼ばれる演算に適用した例をより詳細に示す。
FIG. 16 shows an example in which the input after the calculation for increasing the number of inputs is applied to the neural network and four cases are handled. Exclusive OR (Exclusive OR (also abbreviated as XOR)) using FIG. 15 and FIG.
An example applied to the operation called is shown in more detail.

【0062】XORの演算では、表6に示すように、二
つの入力X1,X2に対して、4つのケースが考えられ
る。
In the XOR operation, as shown in Table 6, there are four possible cases for two inputs X 1 and X 2 .

【0063】[0063]

【表6】 [Table 6]

【0064】そこでケースの数と入力の個数が等しくな
るように、入力個数変換演算をして、同じ表に示すよう
に、y1,y2,y3及びy4の入力があったものとみな
す。ここでは、y1,y2はそれぞれ入力X1,X2そのも
のであり、y3とy4は、それぞれX1,X2を利用した指
数関数として、次式で算出した。
Therefore, the input number conversion operation is performed so that the number of cases and the number of inputs are equal, and as shown in the same table, there are inputs of y 1 , y 2 , y 3 and y 4. I reckon. Here, y 1 and y 2 are inputs X 1 and X 2 , respectively, and y 3 and y 4 are calculated by the following equations as exponential functions using X 1 and X 2 , respectively.

【0065】 y3=exp(−(X1+X2)) ・・・・・・(数6) y4=exp(−0.5(X1+X2)) ・・・・・・(数7) この入力に対して表6に示すように、0,1,1及び0
を出力することを考える。図16のニューラルネットワ
ークを考慮して、各ケースについて次の連立方程式を得
る。
Y 3 = exp (− (X 1 + X 2 )) ··· (Equation 6) y 4 = exp (−0.5 (X 1 + X 2 )) ··· (Equation 7) For this input, as shown in Table 6, 0, 1, 1 and 0
Consider to output. Considering the neural network in FIG. 16, the following simultaneous equations are obtained for each case.

【0066】ここで、右辺の数値は表1の出力の計算式
で、それぞれ近似的に0または1を出力できるような入
力という観点から、−10と10とを選んだ。
Here, the numerical values on the right side are the calculation formulas for the outputs of Table 1, and -10 and 10 were selected from the viewpoint of inputs that can approximately output 0 or 1.

【0067】 1.000000・W+1.000000・W2+0.135335・W3+0.367879・W4=−10
・・(数8) 1.000000・W1+0.000000・W2+0.367879・W3+0.606531・W4=10 ・・(数9) 0.000000・W1+1.000000・W2+0.367879・W3+0.606531・W4=10 ・(数10) 0.000000・W1+0.000000・W2+1.000000・W3+1.000000・W4=−10 ・(数11) これを解くと、結合係数として下記の値が得られる。
1.000000 · W 1 + 1.00000 · W 2 + 0.135335 · W 3 + 0.367879 · W 4 = −10
・ ・ (Equation 8) 1.000000 ・ W 1 +0.000000 ・ W 2 +0.367879 ・ W 3 +0.606531 ・ W 4 = 10 ・ ・ (Equation 9) 0.000000 ・ W 1 +1.00000 ・ W 2 +0.367879 ・W 3 +0.606531 ・ W 4 = 10 ・ (Equation 10) 0.000000 ・ W 1 +0.000000 ・ W 2 +1.000000 ・ W 3 +1.000000 ・ W 4 = -10 ・ (Equation 11) If this is solved, The following values are obtained as the coupling coefficient.

【0068】 W1=−21.426952 ・・・・・(数12) W2=−21.426952 ・・・・・(数13) W3=−157.100139 ・・・・・(数14) W4=+147.100139 ・・・・・(数15) 検算のために、これらの値を代入して前記各式の左辺を
計算すると、右辺に一致する。従って、表1により図1
6の出力は、近似的に0,1,1及び0となり、表6に
示したXORとしての出力に一致する。
W 1 = −21.426952 (Equation 12) W 2 = −21.426952 (Equation 13) W 3 = −157.100139 (Equation 14) ) W 4 = + 147.100139 (Equation 15) When the left side of each equation is calculated by substituting these values for verification, it matches the right side. Therefore, according to Table 1, FIG.
The output of 6 is approximately 0, 1, 1 and 0, which matches the output of XOR shown in Table 6.

【0069】このように、入力個数変換演算を行う方式
では、どのような場合でも、少なくとも変換後の1ケー
ス当たりの入力データの個数は、ケースの数と一致させ
ることができるから、前記のように連立1次方程式と組
み合わせて、簡単に認識,診断が可能になるという効果
がある。
As described above, in the method of performing the input number conversion operation, the number of input data per case at least after conversion can be made equal to the number of cases in any case. In combination with simultaneous linear equations, there is an effect that recognition and diagnosis can be easily performed.

【0070】次に、同じ問題を表1〜表5、図1,図6
等を用いて説明した一般的な解法で解くと、 (1) 2つの入力の総和の大きい順に並べると、2,
1,1及び0となる。
Next, the same problem is solved in Tables 1 to 5, FIGS.
Solving with the general solution method described using (1), when arranged in descending order of the sum of the two inputs,
It becomes 1, 1 and 0.

【0071】(2) その各々に対応する教師データ
は、0,1,1及び0となる。(0から始まってい
る。) (3) 教師データの変化回数は、次の2回である(0
→1,1→0)。
(2) The teacher data corresponding to each of them is 0, 1, 1 and 0. (It starts from 0.) (3) The number of changes of teacher data is the following two times (0
→ 1, 1 → 0).

【0072】(4) 従って、ニューラルネットワーク
の構成法は、表3から第一中間層のニューロン数は、し
きい値修正用を除き2個、第2中間層のニューロンとし
てそれらを結合するAND回路の個数は1個である。A
NDからの出力が、そのまま最終的な出力となる。OR
回路は不要である。
(4) Therefore, according to the construction method of the neural network, from Table 3, the number of neurons in the first intermediate layer is two except for the threshold correction, and an AND circuit for connecting them as neurons in the second intermediate layer. Is one. A
The output from the ND is the final output as it is. OR
No circuit is needed.

【0073】(5) 各部の結合係数は、例えば、図1
7の中に示すようになる。
(5) The coupling coefficient of each part is, for example, as shown in FIG.
As shown in 7.

【0074】なお、図1等に示した実施例のごとく、し
きい値修正用に常に入力1も用いる方法は、入力の総和
をとって入力の個数を1個にした後に、入力個数変換演
算として入力の総和と総和をそれ自体で割って、規格化
した値として1も出力するようにした特殊な場合ともみ
なせる。
As in the embodiment shown in FIG. 1 and the like, in the method of always using the input 1 for the threshold value correction, the total number of inputs is taken and the number of inputs is set to 1, and then the input number conversion operation is performed. Can also be regarded as a special case in which the total sum of inputs and the total sum are divided by themselves and 1 is output as a standardized value.

【0075】本発明の他の実施例について説明する。本
発明は、ニューラルネットワークとは云わないような認
識及び診断にも適用できる。即ち、各ケースの入力個数
がケース数と等しいか、あるいはそのように変換した場
合には、次のニューロンへの入力とせずに、連立方程式
の右辺を、例えば直接にケース番号に等しいとおくこと
もできる。この場合には、ニューラルネットワークとは
異なるが、入力が決まれば直接にそのケース番号を計算
で算出できるので、簡単に各種の認識,診断等に利用で
きるという効果がある。
Another embodiment of the present invention will be described. The present invention can also be applied to recognition and diagnosis that are not called neural networks. That is, if the number of inputs in each case is equal to the number of cases, or if converted so, the right side of the simultaneous equations should be set directly equal to the case number without being input to the next neuron. You can also In this case, although different from the neural network, since the case number can be directly calculated by calculation when the input is determined, there is an effect that it can be easily used for various kinds of recognition and diagnosis.

【0076】本発明の、さらに異なる実施例を説明す
る。本実施例は、前述の方法で、中間層の層数やそのニ
ューロン数等、ニューラルネットワークの構成を決定
後、さらに必要に応じて、一部の結合係数は互いに等し
い等の条件も考慮したうえで、従来のごとく、繰返して
逆伝搬学習するものである。
A further different embodiment of the present invention will be described. In the present embodiment, after the configuration of the neural network such as the number of layers of the intermediate layer and the number of neurons thereof is determined by the above-described method, further considering the condition that some coupling coefficients are equal to each other, if necessary. Then, back propagation learning is repeated as in the conventional case.

【0077】この方法によれば、中間層の層数やニュー
ロン数が明確になっているだけでなく、学習すべき結合
係数の個数を大幅に少なくできるので、学習時間を短縮
できる効果がある。特に、すでに逆伝搬学習をするプロ
グラムを所有している場合には、プログラムの修正は容
易であり、本発明の長所を取り入れて、しかも従来の各
種の機能も利用できるという効果がある。
According to this method, not only the number of intermediate layers and the number of neurons are clarified, but also the number of coupling coefficients to be learned can be significantly reduced, so that the learning time can be shortened. In particular, if the user already has a program for back propagation learning, the program can be easily modified, the advantages of the present invention can be incorporated, and various conventional functions can be used.

【0078】以上述べた各種の手法によって、従来の繰
り返し法による学習完了と同等の状態が、能率よく実現
できる。従って、これらの計算に用いた、いずれかの入
力データを使用すれば、予め定めた教師データに全く等
しいか、あるいはそれに極めて近似した計算値が出力さ
れる。あらかじめ以上のように取り扱うケースの数を十
分多くしておけば、今まで全く入力したことがないもの
についても、類似した入力のケースに近似した出力が得
られるので、各種の認識や診断に利用できる。次に、本
発明の方式で計算した場合の結果と、従来方式の逆伝搬
学習則で計算した場合の結果との比較について説明す
る。比較は、周知の方法でGISのコロナノイズを測定
して、フレキシブル・ディスクに保存していたデータ
を、周波数分析し代表的な数値を読み出したものに基づ
いて行った。
By the various methods described above, the state equivalent to the completion of learning by the conventional iterative method can be efficiently realized. Therefore, if any of the input data used for these calculations is used, a calculated value that is exactly equal to or extremely close to the predetermined teacher data is output. If you handle a large number of cases in advance as described above, you can obtain output that is similar to the case of similar input even for those that have never been input, so it can be used for various recognition and diagnosis. it can. Next, a comparison between the result calculated by the method of the present invention and the result calculated by the conventional back propagation learning rule will be described. The comparison was performed based on the data obtained by measuring the GIS corona noise by a well-known method and performing frequency analysis on the data stored in the flexible disk to read out a typical value.

【0079】従来方式の逆伝搬学習則については、表7
に示すようなニューラルネットワークを用いた。供試G
ISの構造を判別することを目的として、出力層からの
出力の個数は3個とした。最大8(=2*2*2)種類ま
で判別することをめざしている。
Table 7 shows the conventional back propagation learning rule.
A neural network as shown in was used. Sample G
For the purpose of discriminating the structure of IS, the number of outputs from the output layer was three. We aim to discriminate up to 8 (= 2 * 2 * 2) types.

【0080】[0080]

【表7】 [Table 7]

【0081】各ケースの望ましい3つの出力(教師デー
タ)としては、表8を指定した。
Table 8 is designated as three desirable outputs (teaching data) in each case.

【0082】[0082]

【表8】 [Table 8]

【0083】従来方式の、逆伝搬学習則で計算した出力
の例を表9,表10に示す。
Tables 9 and 10 show examples of outputs calculated by the back propagation learning rule in the conventional method.

【0084】[0084]

【表9】 [Table 9]

【0085】[0085]

【表10】 [Table 10]

【0086】学習回数の数え方としては、ここでは、各
ケースを、1回ずつ学習して全ケースを一巡した状態
を、1回と数える。表9は、学習回数が400回及び8
00回の場合であり、表10は学習回数が1200回の
場合である。計算出力は、表8と全く一致するのが理想
であるが、この場合には完全には一致しない。少なくと
も、出力として0を期待する場合に、0.5 以上の数値
は許容し難い。同様に、出力として1を期待する場合
に、0.5 未満の数値は許容できない。このように、許
容し難い数値には、アンダーラインを付けて示した。学
習回数が、400回,800回及び1200回と増すに
つれて、アンダーラインの付いた数値は、7個,3個及
び2個と減少し、計算精度が高まって行くことがわか
る。その計算に要する時間と計算打切り時点における各
ケースの誤差の和も同時に示した。この例題では、12
00回の学習には、5時間20分以上も要すること、あ
る程度学習回数が多くなると、誤差の減少がゆるやかに
なること等がわかる。この例で、逆伝搬学習則で計算を
する場合、学習回数や全誤差もCRT(Cathode Ray Tub
e)に表示しながら、計算を進めている。その表示による
と、全誤差は学習回数に対して、単調には減少せず、あ
る程度小さくなったかと思うと、突然大きくなったりし
ながら、全体的な傾向は、少しずつ減少して行く。一般
的に云えば、表10の状態でも、まだまだ計算精度は不
十分と考えられ、さらに、学習が必要と考えられる。
As a method of counting the number of times of learning, here, the state in which each case is learned once and all the cases are cycled is counted as once. Table 9 shows that the number of learnings is 400 and 8
The number of times of learning is 1200, and Table 10 shows the case of learning 1200 times. The calculated output should ideally match Table 8, but in this case it does not match completely. At least, when expecting 0 as an output, it is difficult to allow a value of 0.5 or more. Similarly, if one expects an output of 1, a number less than 0.5 is unacceptable. In this way, values that are difficult to tolerate are underlined. It can be seen that the number of underlined numbers decreases to 7, 3, and 2 as the number of learning increases to 400, 800, and 1200, and the calculation accuracy increases. The sum of the time required for the calculation and the error in each case at the time when the calculation was terminated is also shown. In this example, 12
It can be seen that the learning of 00 times requires more than 5 hours and 20 minutes, and that the error decreases gradually when the number of times of learning increases to some extent. In this example, when the backpropagation learning rule is used for calculation, the learning count and total error are also calculated by the CRT (Cathode Ray Tub).
Calculation is in progress while displaying in e). According to the display, the total error did not monotonically decrease with respect to the number of times of learning, and it seemed that it had become small to some extent, but suddenly it became large, but the overall tendency gradually decreased. Generally speaking, even in the state of Table 10, it is considered that the calculation accuracy is still insufficient, and further learning is required.

【0087】次に、同じ入力データを用いて、本発明の
図1及び図12を併用した方式による計算結果を表11
に示す。
Next, using the same input data, the calculation results obtained by the method of FIG. 1 and FIG. 12 of the present invention are shown in Table 11.
Shown in.

【0088】[0088]

【表11】 [Table 11]

【0089】この表から明らかなように、小数点以下第
4位四捨五入では、計算出力は、表8に示した教師デー
タに完全に一致した。また、結合係数の計算に要する時
間は、約0.84 秒であった。本発明による方式では、
解析的に計算しており、数値を収束させるための繰返し
計算がないので、計算時間は非常に短い。
As is clear from this table, the calculation output was completely in agreement with the training data shown in Table 8 in the case of rounding to the fourth decimal place. The time required to calculate the coupling coefficient was about 0.84 seconds. In the method according to the invention,
The calculation time is very short because it is calculated analytically and there is no iterative calculation to converge the numerical values.

【0090】上述した本発明の実施例の効果をまとめれ
ば、次のようになる。
The effects of the above-described embodiments of the present invention can be summarized as follows.

【0091】(1) 入力データと教師データから、ニ
ューラルネットワークの中間層の層数やそのニューロン
数を決定でき、さらに各部の結合係数を解析的に計算で
きる。従って、長時間を要する従来の逆伝搬の繰り返し
学習が不要となり、データの入力から、認識,診断まで
の時間を短縮できるという効果がある。
(1) The number of intermediate layers of the neural network and the number of neurons thereof can be determined from the input data and the teacher data, and the coupling coefficient of each part can be calculated analytically. Therefore, the conventional iterative learning of back propagation that requires a long time is not required, and there is an effect that the time from data input to recognition and diagnosis can be shortened.

【0092】(2) 従来は、中間層の層数やそのニュ
ーロン数の選択に、カット・アンド・トライを要する時
間がある程度必要であったが、その時間が不要となっ
た。これにより、計算を能率良く進めることができると
いう効果がある。
(2) Conventionally, it took some time to cut and try to select the number of intermediate layers and the number of neurons, but that time is no longer necessary. This has the effect that the calculation can proceed efficiently.

【0093】(3) 入力データや教師データの多い、
大規模なニューラルネットワークにも適用できるという
効果がある。
(3) A lot of input data and teacher data,
This has the effect of being applicable to large-scale neural networks.

【0094】(4) 入力データを教師データとともに
追加した場合には、追加に値したか否かを判断でき、も
し、無益と判断した場合には、計算機のメモリ節約のた
めに、追加を取り消すことができるという効果がある。
(4) When the input data is added together with the teacher data, it can be judged whether or not it is worth adding, and if it is judged as useless, the addition is canceled to save the memory of the computer. The effect is that you can.

【0095】(5) 繰り返し学習が不要になったこと
から、より経済的な計算機、例えば、book型パソコン等
でも、ニューロン間の結合係数の算出から、診断までで
きる可能性が出てきた。
(5) Since iterative learning is not necessary, there is a possibility that even a more economical computer, such as a book type personal computer, can calculate the coupling coefficient between neurons and perform diagnosis.

【0096】(6) 以上述べた、本発明で得られた知
見を、逆伝搬方式の従来の繰り返し学習を要するニュー
ラルネットワークに併用すれば、中間層の層数やそのニ
ューロン数が明らかになっているほかに、各部の結合係
数相互間の関係も明らかになっているので、実際に学習
を要する結合係数の数は非常に少ないので、学習に要す
る時間が、大幅に短縮できるだけでなく、従来のプログ
ラムの機能を利用できるので便利であるという効果があ
る。
(6) If the above-described findings obtained by the present invention are used in combination with a conventional back-propagation type neural network that requires iterative learning, the number of intermediate layers and the number of neurons thereof will be clarified. In addition, since the relationship between the coupling coefficients of each part has been clarified, the number of coupling coefficients that actually require learning is very small. It has the effect of being convenient because the functions of the program can be used.

【0097】以上の説明では、主として、ソフトウエア
として説明してきたが、当然同様な機能を持ったハード
ウエアとしても実現することが可能である。本発明の適
用できる分野は、各種の工学分野のほかに、バイオテク
ノロジーや医療分野はもちろんのこと、さらに、各種の
物理,化学,生物現象等の認識や診断,農林業,教育,
経済,その他の各種の分野での認識や診断等にも利用で
きる。
In the above description, the description has been made mainly of software, but it is naturally possible to realize it as hardware having a similar function. The fields to which the present invention can be applied include not only various engineering fields but also biotechnology and medical fields, as well as recognition and diagnosis of various physical, chemical and biological phenomena, agriculture and forestry, education,
It can also be used for recognition and diagnosis in various fields such as economy.

【0098】[0098]

【発明の効果】本発明によれば、ニューラルネットワー
ク等のようなシステムにおいて、結合係数を精度良く、
また、容易に得ることができる。
According to the present invention, in a system such as a neural network, the coupling coefficient can be accurately calculated,
It can also be easily obtained.

【0099】また、本発明によれば、ニューラルネット
ワークの適切な中間層の層数やそのニューロン数を容易
に決定することができる。
Further, according to the present invention, it is possible to easily determine the appropriate number of intermediate layers of the neural network and the number of neurons thereof.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例であるニューラルネットワー
クの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a neural network which is an embodiment of the present invention.

【図2】従来におけるニューラルネットワークの一例を
示す図である。
FIG. 2 is a diagram showing an example of a conventional neural network.

【図3】入力データの各ケース毎の総和と教師データの
関係を示す図で、教師データの変化が1回の例を示す図
である。
FIG. 3 is a diagram showing a relationship between a total sum of input data for each case and teacher data, and is a diagram showing an example in which the teacher data changes once.

【図4】教師データの変化が1回の場合における本発明
のニューラルネットワークの一構成例を示す図である。
FIG. 4 is a diagram showing an example of the configuration of the neural network of the present invention in the case where there is one change in teacher data.

【図5】入力データの各ケース毎の総和と教師データの
関係を示す図で、教師データの変化が2回の例とその合
成法を示す図である。
FIG. 5 is a diagram showing the relationship between the total sum of input data in each case and teacher data, showing an example in which the teacher data changes twice and a method of synthesizing the same.

【図6】教師データの変化が2回の場合における本発明
のニューラルネットワークの一構成例を示す図である。
FIG. 6 is a diagram showing an example of the configuration of the neural network of the present invention when the change in the teacher data is twice.

【図7】入力データの各ケース毎の総和と教師データの
関係を示す図で、教師データの変化が3回の例とその合
成法を示す図である。
FIG. 7 is a diagram showing the relationship between the total sum of input data in each case and teacher data, showing an example in which the teacher data changes three times and a method of synthesizing the same.

【図8】教師データの変化が3回の場合における本発明
のニューラルネットワークの一構成例を示す図である。
FIG. 8 is a diagram showing an example of the configuration of the neural network of the present invention when the teacher data changes three times.

【図9】入力データの各ケース毎の総和と教師データの
関係を示す図で、教師データの変化が1回の他の例を示
す図(その2)である。
FIG. 9 is a diagram showing a relationship between the total sum of input data in each case and teacher data, and is a diagram (No. 2) showing another example in which the teacher data changes once.

【図10】入力データの各ケース毎の総和と教師データ
の関係を示す図で、教師データの変化が2回の他の例と
その合成法を示す図(その2)である。
FIG. 10 is a diagram showing the relationship between the total sum of input data for each case and teacher data, and is a diagram (No. 2) showing another example in which the teacher data changes twice and its synthesis method.

【図11】入力データの各ケース毎の総和と教師データ
の関係を示す図で、教師データの変化が3回の他の例と
その合成法を示す図(その2)である。
FIG. 11 is a diagram showing the relationship between the total sum of input data in each case and teacher data, and is a diagram (No. 2) showing another example in which the teacher data changes three times and its synthesis method.

【図12】演算実行中の値と入力,出力の換算例を示す
図である。
FIG. 12 is a diagram showing an example of conversion between a value during calculation and input / output.

【図13】入力個数を減少させる演算例を示す図であ
る。
FIG. 13 is a diagram showing an example of calculation for reducing the number of inputs.

【図14】ニューラルネットワーク自体で入力個数を変
換する例を示す図である。
FIG. 14 is a diagram showing an example of converting the number of inputs by the neural network itself.

【図15】入力個数を増加させる演算例を示す図であ
る。
FIG. 15 is a diagram showing an example of calculation for increasing the number of inputs.

【図16】入力個数を増加させた後の入力と出力例を示
す図である。
FIG. 16 is a diagram showing an example of inputs and outputs after the number of inputs is increased.

【図17】XORを実現するニューラルネットワークの
例を示す図である。
FIG. 17 is a diagram showing an example of a neural network that realizes XOR.

【符号の説明】[Explanation of symbols]

1,X2,X3,X4,X5,Xn…入力、W1,W2
3,W4,Wa,Wb…結合係数,U1…第1中間層への
入力、V1…第1中間層からの出力、S1,S2,S3,S
4,S5,Sn …各ケースの入力総和,y1,y2,y3
4…入力(入力個数変換演算後)。
X 1 , X 2 , X 3 , X 4 , X 5 , X n ... Input, W 1 , W 2 ,
W 3 , W 4 , W a , W b ... Coupling coefficient, U 1 ... Input to first intermediate layer, V 1 ... Output from first intermediate layer, S 1 , S 2 , S 3 , S
4 , S 5 , S n ... Input sum of each case, y 1 , y 2 , y 3 ,
y 4 Input (after input number conversion calculation).

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】入力層,中間層及び出力層とを有するニュ
ーラルネットワークを用いた認識又は診断方法におい
て、 前記出力層以外には常に1を出力する、しきい値修正用
のニューロンを各一個設け、 各ケース毎の入力データについて総和を求め、 前記出力層の各出力毎に、前記入力データの各総和の大
きさの順に、対応する教師データとともに作表し、 前記表の教師データの変化回数Nと等しい数のニューロ
ンを第1の中間層として前記表に従って順次配置し、 前記Nが奇数の場合には、第2の中間層として、(N−
1)/2個のニューロンを配置して、前記第1の中間層
の出力を2個ずつ順次入力させて、前記第2の中間層の
各出力を、前記第1の中間層の出力の残り1個と共に、
前記出力層の入力にし、 また、前記Nが偶数の場合には、第2の中間層として、
N/2個のニューロンを配置して、前記第1の中間層の
出力を2個ずつ順次入力させて、前記第2の中間層の各
出力を、前記出力層の入力にし、 前記表における入力データの総和が最大のケースに対応
する教師データと、教師データが変化する前後の入力デ
ータの総和と教師データとに着目して各部の結合係数を
解析的に求めることを特徴とする認識又は診断方法。
1. A recognition or diagnosis method using a neural network having an input layer, an intermediate layer, and an output layer, wherein a threshold correction neuron that always outputs 1 is provided in each of the output layers other than the output layer. , The sum of the input data for each case is calculated, and is created for each output of the output layer in the order of the size of each sum of the input data together with the corresponding teacher data. And the number of neurons is sequentially arranged according to the above table as a first intermediate layer, and when the N is an odd number, the second intermediate layer is (N-
1) / 2 neurons are arranged so that two outputs of the first intermediate layer are sequentially input, and each output of the second intermediate layer is converted into a remainder of the output of the first intermediate layer. With one
In the input of the output layer, and when the N is an even number, as the second intermediate layer,
By arranging N / 2 neurons, two outputs of the first intermediate layer are sequentially input, and each output of the second intermediate layer is made an input of the output layer. Recognition or diagnosis characterized by analytically obtaining the coupling coefficient of each part by focusing on the teacher data corresponding to the case where the sum of the data is maximum, the sum of the input data before and after the change of the teacher data, and the teacher data Method.
【請求項2】請求項1に記載の認識又は診断方法におい
て、前記各ケースの入力データの総和の代わりに、前記
各入力に対してすべては等しくない任意の数Kiを乗じ
た後に総和を求めること特徴とする認識又は診断方法。
2. The recognition or diagnosis method according to claim 1, wherein instead of summing the input data of each case, the sum is calculated after multiplying each input by an arbitrary number Ki which is not all equal. A recognition or diagnosis method characterized by the above.
【請求項3】請求項1または2に記載の認識又は診断方
法において、前記表の入力データの総和が最大のケース
に対応する教師データが0である場合には、前記第2の
中間層はAND回路として、前記出力層はOR回路とし
て機能するように結合係数を選定することを特徴とする
認識又は診断方法。
3. The recognition or diagnosis method according to claim 1, wherein when the teacher data corresponding to the case where the total sum of the input data in the table is maximum is 0, the second intermediate layer is A recognition or diagnosis method, wherein a coupling coefficient is selected so that the output layer functions as an OR circuit as an AND circuit.
【請求項4】請求項1または2に記載の認識又は診断方
法において、前記表の入力データの総和が最大のケース
に対応する教師データが1である場合には、前記第2の
中間層はOR回路として、前記出力層はAND回路とし
て機能するように結合係数を選定することを特徴とする
認識又は診断方法。
4. The recognition or diagnosis method according to claim 1 or 2, wherein when the teacher data corresponding to the case where the sum of the input data in the table is maximum is 1, the second intermediate layer is A recognition or diagnosis method characterized in that, as an OR circuit, the output layer selects a coupling coefficient so as to function as an AND circuit.
【請求項5】請求項1または2に記載の認識又は診断方
法において、前記ニューラルネットワークの一部の結合
係数の算出に逆伝搬の繰り返し学習法を用いたことを特
徴とする認識又は診断方法。
5. The recognition or diagnosis method according to claim 1, wherein a back propagation iterative learning method is used to calculate a coupling coefficient of a part of the neural network.
【請求項6】1ケース当たりの入力データの個数をケー
スの数と等しくし、ニューロンへの入力の計算式を用い
て各ケースについて連立方程式を作成し、この連立方程
式を解くことにより結合係数を求め、この結合係数に基
づきニューラルネットワークを利用することを特徴とす
る認識又は診断方法。
6. The number of input data per case is made equal to the number of cases, simultaneous equations are created for each case using a calculation formula of inputs to neurons, and the coupling coefficient is calculated by solving this simultaneous equation. A recognizing or diagnosing method characterized by using the neural network based on the coupling coefficient obtained.
【請求項7】請求項6に記載の認識又は診断方法におい
て、前記計算式におけるニューロンへの入力に相当する
値として、入力データのケース番号等を用い、前記ニュ
ーラルネットワークに代えて、連立方程式を解くことに
より入力データのケース番号等を識別できるようにした
ことを特徴とする認識又は診断方法。
7. The recognition or diagnosis method according to claim 6, wherein a case number of input data is used as a value corresponding to an input to a neuron in the calculation formula, and simultaneous equations are used instead of the neural network. A recognition or diagnosis method characterized in that a case number or the like of input data can be identified by solving.
【請求項8】少なくとも入力層及び出力層とを有するニ
ューラルネットワークを用いた認識又は診断方法におい
て、 前記出力層以外には常に1を出力する、しきい値修正用
のニューロンを各一個設け、 各ケース毎の入力データについて総和を求め、 前記出力層の各出力毎に、前記各ケースを入力データの
総和の大きさの順に並べて、対応する教師データの変化
回数Nを求め、 該変化回数Nと等しい数のニューロンを第1の中間層と
して配置し、 前記Nが奇数の場合には、第2の中間層として、(N−
1)/2個のニューロンを配置して、前記第1の中間層
の出力を2個ずつ入力させて、前記第2の中間層の各出
力を、前記第1の中間層の出力の残り1個と共に、前記
出力層の入力にすることを特徴とする認識又は診断方
法。
8. A recognition or diagnosis method using a neural network having at least an input layer and an output layer, wherein a threshold correction neuron that always outputs 1 is provided in each of the output layers other than the output layer. The sum is calculated for the input data for each case, the cases are arranged for each output of the output layer in the order of the size of the sum of the input data, and the number N of changes of the corresponding teacher data is calculated. An equal number of neurons are arranged as the first intermediate layer, and when the N is an odd number, the second intermediate layer is (N-
1) / 2 neurons are arranged, two outputs of the first intermediate layer are input, and each output of the second intermediate layer is converted into the remaining one output of the first intermediate layer. A recognition or diagnosis method characterized in that it is used as an input to the output layer together with the individual.
【請求項9】少なくとも入力層及び出力層とを有するニ
ューラルネットワークを用いた認識又は診断方法におい
て、 前記出力層以外には常に1を出力する、しきい値修正用
のニューロンを各一個設け、 各ケース毎の入力データについて総和を求め、 前記出力層の各出力毎に、前記各ケースを入力データの
総和の大きさの順に並べて、対応する教師データの変化
回数Nを求め、 該変化回数Nと等しい数のニューロンを第1の中間層と
して配置し、 前記Nが偶数の場合には、第2の中間層として、N/2
個のニューロンを配置して、前記第1の中間層の出力を
2個ずつ入力させて、前記第2の中間層の各出力を、前
記出力層の入力にすることを特徴とする認識又は診断方
法。
9. A recognition or diagnosis method using a neural network having at least an input layer and an output layer, wherein a threshold correction neuron that always outputs 1 is provided in each of the output layers except for the output layer. The sum is calculated for the input data for each case, the cases are arranged for each output of the output layer in the order of the size of the sum of the input data, and the number N of changes of the corresponding teacher data is calculated. An equal number of neurons are arranged as the first intermediate layer, and when the N is an even number, N / 2 is set as the second intermediate layer.
Recognition or diagnosis, in which each neuron is arranged, two outputs of the first intermediate layer are input, and each output of the second intermediate layer is used as an input of the output layer. Method.
【請求項10】少なくとも入力層及び出力層とを有する
ニューラルネットワークを用いた認識又は診断方法にお
いて、 前記出力層以外には常に1を出力する、しきい値修正用
のニューロンを各一個設け、 各ケース毎の入力データについて総和を求め、 前記出力層の各出力毎に、前記入力データの各総和の大
きさの順に、対応する教師データとともに作表し、 前記表における入力データの総和が最大のケースに対応
する教師データと、教師データが変化する前後の入力デ
ータの総和と教師データとに着目して各部の結合係数を
解析的に求めることを特徴とする認識又は診断方法。
10. A recognition or diagnosis method using a neural network having at least an input layer and an output layer, wherein a threshold correction neuron that always outputs 1 is provided in each of the output layers other than the output layer. The sum is calculated for the input data for each case, and for each output of the output layer, in the order of the size of each sum of the input data, it is drawn together with the corresponding teacher data, and the sum of the input data in the table is the maximum case. A recognition or diagnosis method characterized in that the coupling coefficient of each part is analytically obtained by focusing on the teacher data corresponding to, the sum of the input data before and after the teacher data changes, and the teacher data.
JP4230859A 1992-08-28 1992-08-31 Recognition or diagnosis method Pending JPH0683795A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4230859A JPH0683795A (en) 1992-08-31 1992-08-31 Recognition or diagnosis method
US08/111,472 US5627941A (en) 1992-08-28 1993-08-25 Method of configuring a neural network and a diagnosis/control system using the neural network
US08/214,769 US5598509A (en) 1992-08-28 1994-03-18 Method of configuring a neural network and a diagnosis/recognition system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4230859A JPH0683795A (en) 1992-08-31 1992-08-31 Recognition or diagnosis method

Publications (1)

Publication Number Publication Date
JPH0683795A true JPH0683795A (en) 1994-03-25

Family

ID=16914428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4230859A Pending JPH0683795A (en) 1992-08-28 1992-08-31 Recognition or diagnosis method

Country Status (1)

Country Link
JP (1) JPH0683795A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020061007A (en) * 2018-10-11 2020-04-16 富士通株式会社 Learning program, learning method, and learning device
JP2020184311A (en) * 2019-04-30 2020-11-12 富士通株式会社 Reduction of training time in auto data augmentation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020061007A (en) * 2018-10-11 2020-04-16 富士通株式会社 Learning program, learning method, and learning device
JP2020184311A (en) * 2019-04-30 2020-11-12 富士通株式会社 Reduction of training time in auto data augmentation

Similar Documents

Publication Publication Date Title
US11488718B2 (en) Computer aided medical method and medical system for medical prediction
US6275817B1 (en) Semiotic decision making system used for responding to natural language queries and other purposes and components therefor
US6505184B1 (en) Autognomic decision making system and method
CN117995392B (en) Differential diagnosis generation method, device, electronic equipment and storage medium
WO2022204803A1 (en) System and method for concise assessment generation using machine learning
CN106875940A (en) A kind of Machine self-learning based on neutral net builds knowledge mapping training method
US6366897B1 (en) Cortronic neural networks with distributed processing
JP2020095398A (en) Model prediction basis presentation system and model prediction basis presentation method
US5649067A (en) Neural device and method of constructing the device
Touzout et al. Hybridization of time synchronous averaging, singular value decomposition, and adaptive neuro fuzzy inference system for multi-fault bearing diagnosis
Martignon Comparing fast and frugal heuristics and optimal models
Johnson et al. Garden path errors in diagnostic reasoning
Chang et al. Lightweight lossy/lossless ECG compression for medical IoT systems
JPH06274660A (en) Recognizing or diagnosing method
Hart et al. Connectionist models in medicine: an investigation of their potential
JPH0683795A (en) Recognition or diagnosis method
CN119416822B (en) Task processing method, system, terminal and medium based on multiple expert layers
CN119323271B (en) Multi-objective optimization method for language model intelligent question answering system
Kempthorne The classical problem of inference–goodness of fit
Szajowski Double stopping by two decision-makers
Eisler Applicability of the parallel-clock model to duration discrimination
Reznichenko et al. Optimization of arrhythmia-based ecg-lead selection for computer-interpreted heart rhythm classification
JP3287738B2 (en) Relational function search device
CN116596391A (en) Change control performance determining method, device, electronic equipment and storage medium
CN118939848B (en) Unstructured data processing system based on large language model and vector database