[go: up one dir, main page]

JPH0283656A - Learning processor - Google Patents

Learning processor

Info

Publication number
JPH0283656A
JPH0283656A JP63235441A JP23544188A JPH0283656A JP H0283656 A JPH0283656 A JP H0283656A JP 63235441 A JP63235441 A JP 63235441A JP 23544188 A JP23544188 A JP 23544188A JP H0283656 A JPH0283656 A JP H0283656A
Authority
JP
Japan
Prior art keywords
learning
learning processing
layer
units
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63235441A
Other languages
Japanese (ja)
Other versions
JP2606317B2 (en
Inventor
Atsunobu Hiraiwa
平岩 篤信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP63235441A priority Critical patent/JP2606317B2/en
Priority to US07/406,733 priority patent/US5093899A/en
Priority to DE68924822T priority patent/DE68924822T2/en
Priority to DE68929102T priority patent/DE68929102T2/en
Priority to EP94107842A priority patent/EP0612033B1/en
Priority to EP89402544A priority patent/EP0360674B1/en
Publication of JPH0283656A publication Critical patent/JPH0283656A/en
Priority to US07/727,871 priority patent/US5129039A/en
Application granted granted Critical
Publication of JP2606317B2 publication Critical patent/JP2606317B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Abstract] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 A 産業上の利用分野 本発明は、それぞれニューロンに対応する信号処理を行
う複数のユSントにて構成された所謂ニューラル、ネッ
トワーク(Neural Network : 神経回
路網)を用いた信号処理部に対して、ハックプロパゲー
ション(Back propagation :逆伝播
)学習剤に従った学習処理を施す学習処理装置に関する
[Detailed Description of the Invention] A. Industrial Field of Application The present invention uses a so-called neural network (neural network) composed of a plurality of units that each perform signal processing corresponding to a neuron. The present invention relates to a learning processing device that performs learning processing on a signal processing unit based on a hack propagation learning agent.

B 発明の概要 本発明は、ニューラルネットワークによる信号処理部に
対してバックプロパゲーンヨン学習則に従った学習処理
を行う学習処理装置において、中間層のユニットの数を
増加させながら結合の強さの係数の学習処理を行うこと
により、学習処理過程における局所的最小値状態を回避
でルるようにしたものである。
B. Summary of the Invention The present invention provides a learning processing device that performs learning processing in accordance with the backpropagation learning rule for a signal processing unit using a neural network, in which the strength of connections is increased while increasing the number of units in the intermediate layer. By performing coefficient learning processing, a local minimum value state in the learning processing process can be avoided.

C従来の技術 ニューラルネットワークの学習アルゴリズムであるバッ
クプロパゲーション学習則” ParallelDis
tributed ProcessingJVol、I
 The MTT Press1986や日経エレクト
ロニクス1987年8月10日号。
C.Backpropagation learning rule which is a learning algorithm of conventional technology neural network” ParallelDis
TributedProcessingJVol,I
The MTT Press 1986 and Nikkei Electronics August 10, 1987 issue.

No、427.ppH5−124等参照」は、第8図に
示すように、入力層(31)と出力1il (33)の
間に中間層(32)を有する多層構造のニューラルネッ
トワークに適用され、高速画像処理やパターン認識等の
各種の信号処理への応用が試みられている。
No, 427. ppH5-124, etc." is applied to a multilayer neural network that has an intermediate layer (32) between an input layer (31) and an output layer (33), as shown in Figure 8, and is used for high-speed image processing and Applications to various signal processing such as pattern recognition are being attempted.

すなわち、第8図に示すように、このニューラルネット
ワークを構成する各ユニット(U、)は、ユニット(U
、)からユニット(uJ)への結合係数Wjiで結合さ
れるユニット(U、)の出力値。、の総和neJを例え
ばsigmoid関数などの所定の関数fで変換された
値o、を出力する。す、なゎち、パターンpの値が入力
層の各ユニット(UJ)に入力値としてそれぞれ供給さ
れたとき、中間層および出力層の各二二ンF(u=)の
出力値0++iは、OpJ= f J(netpj) =f、(ΣWji・O9j+)  ・・・・・第1式な
る第1式で表される。
That is, as shown in FIG. 8, each unit (U,) constituting this neural network is
, ) to the unit (uJ) with the coupling coefficient Wji. , is converted by a predetermined function f such as a sigmoid function, and a value o is output. So, when the value of pattern p is supplied as an input value to each unit (UJ) of the input layer, the output value 0++i of each unit F(u=) of the intermediate layer and the output layer is as follows. OpJ=f J(netpj) =f, (ΣWji·O9j+)... Expressed by the first equation.

そして、入力層(3I)から出力層(33)へ向かって
、各ニヱーロンに対応するユニット(UJ)の出力値を
順次計算していくことで、上記出力i (33)のユニ
ット(u4)の出力(直Op=が得られる。
Then, by sequentially calculating the output value of the unit (UJ) corresponding to each unit from the input layer (3I) to the output layer (33), the output value of the unit (U4) of the above output i (33) is calculated. Output (direct Op= is obtained.

バンクブロバゲーシゴン学習アルゴリズムにおいては、
パターンpを与えたときの、出力層(33)の各ユニッ
ト(u4)の実際の出力値09jと望ましい出力値Lp
jすなわち教師信号との二乗誤差の総和E。
In the bank blog game learning algorithm,
Actual output value 09j and desired output value Lp of each unit (u4) of the output layer (33) when pattern p is given
j, that is, the sum E of squared errors with respect to the teacher signal.

を桟小化するように、結合係数Wjiを変える学習処理
を出力層(33)から入力層(31)へ向かって順次に
行うことにより、教師信号の値LpJに最も近い出力値
Op=が上記出力層(33)のユニット(u ;)がら
出力されるようになる。
By sequentially performing a learning process that changes the coupling coefficient Wji from the output layer (33) to the input layer (31) so as to reduce the cross section, the output value Op= closest to the value LpJ of the teacher signal is The unit (u;) of the output layer (33) is now output.

そして、二乗誤差の総和E、を小さくする結合係数Wi
(の変化量ΔVVjl を、 ΔWji CC−aE、 /gwJr  −−−−−第
3式と決めると、上記第3式は、 ΔW1−η・δ9、・o21  ・・・・・・−・・・
7J44 fcに変形することができる(この過程は上
述の文献を参照)。
Then, the coupling coefficient Wi that reduces the sum of squared errors E
(If the amount of change ΔVVjl is determined as ΔWji CC−aE, /gwJr −−−−− third formula, then the above third formula becomes ΔW1−η・δ9,・o21 ・・・・・・−・
7J44 fc (see the above-mentioned document for this process).

ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには人出方の値等から経験的に決定される。ま
た、δ2.はユニット(uJ)のもつ誤差値である。
Here, η is a learning rate (constant), which is determined empirically from the number of units, the number of layers, the number of people, etc. Also, δ2. is the error value of the unit (uJ).

従って、上記変化量ΔW j iを決定するためには、
上記誤差値δ2Jをネットワークの出力層がら入力層に
向かって逆向きに求めていけば良い。出力層のユニット
(u、)の誤差値δ2.は、δpj=(t、、’ p=
) f ’7(net7) 0910.第5式なる第5
弐で与えられ、中間層のユニット(u、)の誤差値δ2
、は、そのユニット(uJ)が結合されている各二二ッ
)(um)  (この例では出方層の各ユニット)の結
合係数WkJおよび誤差値δ、を用いて、 δpj ”’ f ’ j (nejj)Σδpkwk
、山・・第6式なる再帰関数にて計算される(上記第5
式および第6弐を求める過程は上述の文献を参照)。
Therefore, in order to determine the amount of change ΔW j i,
The above error value δ2J may be obtained in the reverse direction from the output layer of the network toward the input layer. Error value δ2 of unit (u,) in the output layer. is δpj=(t,,' p=
) f '7 (net7) 0910. 5th formula
2, the error value δ2 of the unit (u,) of the intermediate layer is given by
, using the coupling coefficient WkJ and error value δ of each unit (um) (in this example, each unit of the output layer) to which the unit (uJ) is coupled, δpj ''' f ' j (nejj)Σδpkwk
, mountain...Calculated using the recursive function of the sixth formula (the fifth above)
For the formula and the process of determining No. 6, please refer to the above-mentioned literature).

なお、上記f ’ J(netJ)は、出力関数f J
(netJ)の微分値である。
Note that the above f' J (netJ) is the output function f J
It is the differential value of (netJ).

そして、変化量Δw1、は、上記第5式および第6弐の
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 ΔWji、□l+=η・δpj’op汁α・Δwji(
nl・・・・・・第7式 なる第7式にて求めることで、より安定した結果が得ら
れる。なお、αはエラーの振動を残らし、収束を速める
ための安定化定数である。
The amount of change Δw1 is determined by the above-mentioned equation 4 using the results of equations 5 and 6, but using the previous learning results, ΔWji, □l+=η・δpj'op juice α・Δwji(
A more stable result can be obtained by finding nl using the seventh equation. Note that α is a stabilizing constant for leaving error oscillations and speeding up convergence.

そして、この学習を繰り返し行い、出力値□p4と教師
信号の値tIljとの二乗誤差の総和Epが十分に小さ
くなった時点で学習を完了するようにしていた。
Then, this learning is repeated, and the learning is completed when the sum Ep of the squared errors between the output value □p4 and the value tIlj of the teacher signal becomes sufficiently small.

D 発明が解決しようとする課題 ところで、上述の如き多層型のニューラルネットワーク
に対するハックプロパゲーション学習則に従った学習処
理は、機能面で高い能力が期待できるのであるが、学習
処理過程において最適最小値(global mini
mum)に達することなく、局所的最小値(local
 minimum)状態に陥り、二乗誤差の総和Epが
十分に小さくならないことが多々ある。
D Problems to be Solved by the Invention By the way, learning processing according to the hack propagation learning rule for multilayer neural networks as described above can be expected to have high functional ability, but in the learning processing process, the optimal minimum value (global mini
local minimum (local
In many cases, the sum Ep of the squared errors does not become sufficiently small.

従来、上記局所的最小値状態に陥った場合には、初期値
や学習レートηを変えて学習処理を繰り返し行うことに
より、最適最小値状態を見つけるようにしていたので、
従来の学習処理装置では、学習処理時間が極めて長く、
しかも、変動が大きいという問題点があった。
Conventionally, when falling into the above local minimum value state, the optimal minimum value state was found by repeatedly performing the learning process by changing the initial value and learning rate η.
With conventional learning processing devices, the learning processing time is extremely long.
Moreover, there was a problem in that the fluctuation was large.

そこで、本発明は、上述の如き従来の実情に鑑み、ニュ
ーラルネットワークによる信号処理部に対してバックプ
ロパゲーション学習則に従った学習処理を施す学習処理
装置において、学習処理過程における局所的最小値状態
を効率良く回避して、安定に且つ高速に最適最小値状態
に収束できるようにすることを目的とし、中間層のユニ
ットを増加させながら学習処理を行うようにした新規な
構成の学習処理装置を提供するものである。
Therefore, in view of the conventional situation as described above, the present invention provides a learning processing device that performs learning processing in accordance with the backpropagation learning rule on a signal processing unit using a neural network, in which a local minimum value state in the learning processing process is In order to efficiently avoid this and converge to the optimal minimum value state stably and quickly, we have developed a learning processing device with a new configuration that performs learning processing while increasing the number of units in the middle layer. This is what we provide.

E 課題を解決するための手段 本発明は、上述の目的を達成するために、それぞれニュ
ーロンに対応する信号処理を行う複数のユニットにて構
成された入力層、中間層および出力層を備える信号処理
部と、上記入力層に入力される入力信号パターンに対す
る上記出力層の出力値と教師信号として与えられる所望
の出力値との誤差情報に基づいて上記各ユニットの間の
結合の強さの係数を上記出力層側から上記入力層側に向
かって順次に繰り返し計算し、上記結合の強さの係数の
学習処理を行う学習処理部とを備えて成る学習処理装置
において、上記結合の強さの係数の学習処理過程におい
て上記中間層のユニットの数を増加させる制御手段を上
記学習処理部に設け、上記学習処理部にて上記中間層の
ユニットの数を増加させながら上記結合の強さの係数の
学習処理を行うようにしたことを特徴としている。
E. Means for Solving the Problems In order to achieve the above-mentioned objects, the present invention provides a signal processing system comprising an input layer, an intermediate layer, and an output layer, each of which is composed of a plurality of units that perform signal processing corresponding to neurons. and a coefficient of the strength of coupling between each unit based on error information between the output value of the output layer and the desired output value given as a teacher signal with respect to the input signal pattern input to the input layer. and a learning processing unit that repeatedly calculates the coefficients of the strength of the connection in order from the output layer side to the input layer side, and performs learning processing of the coefficient of the strength of the connection, wherein the coefficient of the strength of the connection is The learning processing section is provided with a control means for increasing the number of units in the intermediate layer in the learning processing process, and the learning processing section controls the coefficient of the connection strength while increasing the number of units in the intermediate layer. It is characterized by the fact that it performs learning processing.

F 作用 本発明に係る学習処理装置では、学習処理部にて中間層
のユニットの数を増加させながら結合の強さの係数の学
習処理を行う社→ことにより、バックプロパゲーション
学習則に従った学習処理過程における局所的最小値状態
を回避して最適最小値状態に確実に収束する学習処理を
行う。
F Function In the learning processing device according to the present invention, the learning processing unit performs learning processing of the coefficient of connection strength while increasing the number of units in the intermediate layer, thereby following the backpropagation learning rule. Learning processing is performed to avoid local minimum value states in the learning processing process and reliably converge to the optimal minimum value state.

G 実施例 以下、本発明の実施例について、図面を参照しながら詳
細に説明する。
G. Embodiments Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明に係る学習処理装置は、第1図にその原理的な構
成を示しであるように、それぞれニューロンに対応する
信号処理を行う複数のユニットにて1成された少なくと
も入力層(11)、中間層(12)および出力層(13
)を備える3N構造のニューラルネットにて構成された
信号処理部(lO)と、上記信号処理部(10)の上記
入力層(11)に入力される入力信号パターンpに対す
る上記出力層の出力値と教師信号Lpjとして与えられ
る所望の出力値0□との誤差情報δ2、に基づいて上記
各ユニットの間の結合の強さの係数Wjiを上記出力層
(13)側から上記入力層(11)側に向かって順次に
繰り返し計算し、バソクプロノバゲーション学習則に従
って上記結合係数Wjiを学習する学習処理を上記信号
処理部(10)に施す学習処理部(20)とを備えて成
る。
As shown in FIG. 1, the learning processing device according to the present invention has at least an input layer (11) composed of a plurality of units that each perform signal processing corresponding to a neuron. Intermediate layer (12) and output layer (13
), and an output value of the output layer for the input signal pattern p input to the input layer (11) of the signal processing unit (10). The coefficient Wji of the strength of coupling between the units is calculated from the output layer (13) side to the input layer (11) based on the error information δ2 between the desired output value 0□ given as the teacher signal Lpj. and a learning processing section (20) that subjects the signal processing section (10) to a learning process of sequentially and repeatedly calculating the coupling coefficient Wji in accordance with the Basokupronovagation learning rule.

上記学習処理部(20)は、上記信号処理部(10)の
上記中間Ji(12)のユニットの数を増加させながら
上記結合係数Wjiの学習処理を行うもので、上記結合
係数Wjiの学習処理過程において上記中間層(12)
のユニットの数を増加させる制御機能を有し、例えば第
2図Aに示すように、それぞれニューロンに対応する任
意の個数x、y、zのユニット(u+〜u +++)、
(uHi−uHy)+(uo+=uog)にて構成され
た入力層(11)、中間層(12)および出力層(13
)を有する信号処理部(10)に対して、第2図Bに示
すように、上記中間層(12)のユニットの数をy個か
ら(y+m)個に順次に増加させながら、上記結合係数
Wjiの学習処理を行う。
The learning processing unit (20) performs learning processing of the coupling coefficient Wji while increasing the number of units of the intermediate Ji (12) of the signal processing unit (10), and performs learning processing of the coupling coefficient Wji. In the process, the above intermediate layer (12)
For example, as shown in FIG. 2A, an arbitrary number of x, y, z units (u+ to u +++) corresponding to neurons, respectively,
Input layer (11), intermediate layer (12) and output layer (13) composed of (uHi-uHy)+(uo+=uog)
), as shown in FIG. 2B, while increasing the number of units in the intermediate layer (12) from y to (y+m), the coupling coefficient Performs Wji learning processing.

ここで、上記中間11(12)のユニットの数を増加さ
せる制御は、上記結合係数W j iの学習処理過程に
おいて定期的に行っても良く、また、上記局所的最小値
状態の発生を検出する毎に行うようにしても良い。
Here, the control to increase the number of units in the intermediate 11 (12) may be performed periodically in the process of learning the coupling coefficient W j i, and the occurrence of the local minimum value state may be detected. It may be done every time.

上記結合係数Wjiの学習処理過程において上記中間層
(12)のユニットの数を増加させる制御機能を有する
上記学習処理部(20)は、入力層(11)、中間層(
12)および出力層(13)を備える3層構造のニュー
ラルネントにて構成された信号処理部(10)に対して
、上記信号処理部(10)の上記中間層(12)のユニ
ットの数を増加させながら上記結合係数Wjiの学習処
理を行うことにより、上記結合係数Wjiの学習処理過
程において局所的最小値状態が発生した場合にも、上記
中間層(12)のユニットの増加によって上記局所的最
小値状態から抜は出して、最適最小値状態に迅速に且つ
確実に収束する学習処理を行うことができる。
In the process of learning the coupling coefficient Wji, the learning processing unit (20) has a control function of increasing the number of units in the intermediate layer (12).
12) and an output layer (13), the number of units in the intermediate layer (12) of the signal processing unit (10) is By performing the learning process of the coupling coefficient Wji while increasing the coupling coefficient Wji, even if a local minimum value state occurs in the process of learning the coupling coefficient Wji, the unit of the intermediate layer (12) increases. It is possible to perform a learning process that quickly and reliably converges to the optimal minimum value state by starting from the minimum value state.

このように上記結合係数Wjiの学習処理過程において
上記中間層のユニットの数を増加させる制御機能を有す
る上記学習処理部(20)にて、例えば、第3図に示す
ように、それぞれニューロンに対応する任意の個数X、
 y、Zのユニット(u++〜u+x)+(usr−u
sr)AuOt−uoz)  にて構成された入力層(
Ll)と中間層(L、)と出力層(Lo)の3層構造の
ニューラルネントワークにて構成され、上記中間層(L
M)および出力層(Lo)の各ユニ7)(uMl〜u)
Iy)+(uol”””uoi)は、それぞれ遅延手段
を備え、その出力値oit。を上記遅延手段を介して自
己の入力とするループ(LP)および他のユニノI・の
入力とするフィードハック(FB)を含むリカレント回
路網を構成した信号処理部(100)について、入力層
(Ll)のユニンI−数を8個(x=8)、出力層(L
o)のユニット数を3個(z=3)、各層の遅延手段の
数を2とし、学習時の入力信号パターンpとして/=8
X7の時空間パターンを21個用いて、第4図のフロー
チャートに示す処理アルゴリズムにて、中間層(1−H
)のユニット数を3個(y=3)から学習を開始し、学
習処理過程において上記中間層(LM)のユニットを追
加する実験を繰り返し行ったところ、上記中間層(LH
)のユニットを3〜5回追加することにより、全ての学
習処理実験において、局所的最小値状態に陥ることなく
、最適最小値状態に収束する実験結果が得られた。
In this way, in the learning processing process of the coupling coefficient Wji, the learning processing unit (20) having a control function to increase the number of units in the intermediate layer, for example, as shown in FIG. any number X,
y, Z unit (u++~u+x)+(usr-u
sr)AuOt-uoz)
It is composed of a neural network with a three-layer structure: the middle layer (L,), the middle layer (L, ), and the output layer (Lo).
M) and output layer (Lo) each unit 7) (uMl~u)
Iy)+(uol"""uoi) is a loop (LP) which is provided with a delay means and whose output value oit is inputted to itself via the delay means, and a feed which is inputted to another unino I. Regarding the signal processing unit (100) that constitutes a recurrent circuit network including a hack (FB), the number of unins in the input layer (Ll) is 8 (x = 8), and the number of unins in the input layer (Ll) is 8 (x = 8),
o), the number of units is 3 (z=3), the number of delay means in each layer is 2, and the input signal pattern p during learning is /=8
Using 21 spatiotemporal patterns of X7, the middle layer (1-H
) We started learning from 3 units (y = 3), and repeated experiments in which we added units from the middle layer (LM) during the learning process.
) was added 3 to 5 times, in all learning processing experiments, experimental results were obtained that converged to the optimal minimum value state without falling into a local minimum value state.

第5図は、上記実験の結果の1例を示しており、同図中
に矢印を付して示すタイミングで上記中間層(LJ の
ユニットを追加して、上記中間層(Lx)のユニットを
3個から6個に増加させることにより、最適最小値状態
に収束する学習処理を行うことができた実験結果を示し
ている。なお、第5図において、縦軸は二乗誤差の総和
し門Sを示し、横軸は学習処理の回数を示している。
FIG. 5 shows an example of the results of the above experiment, in which the middle layer (LJ) unit was added at the timing indicated by the arrow in the figure, and the middle layer (Lx) unit was added. The experimental results show that by increasing the number from 3 to 6, the learning process was able to converge to the optimal minimum value state.In Figure 5, the vertical axis represents the sum of the squared errors , and the horizontal axis indicates the number of learning processes.

ここで、上記第4図のフローチャートに示す処理アルゴ
リズムについて説明する。
Here, the processing algorithm shown in the flowchart of FIG. 4 above will be explained.

この処理アルゴリズムでは、先ず、ステップ1において
、局所的最小値状態を検出するための処理回数を示す変
数KをOに初期設定するとともに、学習処理の収束条件
を判断するための第1の変数Lmsを10000000
00に初期設定する。
In this processing algorithm, first, in step 1, a variable K indicating the number of processes for detecting a local minimum value state is initially set to O, and a first variable Lms is set to O for determining the convergence condition of the learning process. 10000000
Initialize to 00.

次のステップ2にて全学習パータンすなわち!個の入力
信号パターンpの学習回数を示す変数nを0に初期設定
してから、ステップ3に移ってP個の入力信号パターン
pの学習処理を行う。
In the next step 2, you will learn all the learning patterns! After initially setting a variable n indicating the number of learning times for P input signal patterns p to 0, the process moves to step 3 and learning processing for P input signal patterns p is performed.

次のステップ4では、上記学習回数を示す変数nの判定
を行い、n=3でない場合にはステップ5に移ってn=
n+1として上記ステップ3に戻って上記学習処理を繰
り返し行い、n=3になるとステップ゛6に1多る。
In the next step 4, the variable n indicating the number of learning times is determined, and if n=3, the process moves to step 5 and n=
When n+1 is set, the process returns to step 3 and the learning process is repeated, and when n=3, step 6 is increased by one.

上記ステップ6では、学習処理の収束条件を判断するた
めの第2の変数Lms(−1)の値として上記第1の変
数L+msの値を保持してから、各ユニットにおける教
師信号と出力信号との二乗誤差の総和を第8式にて算出
して、この値を上記第1の変数LI+lsの新たな値と
する。
In step 6 above, the value of the first variable L+ms is held as the value of the second variable Lms(-1) for determining the convergence condition of the learning process, and then the teacher signal and output signal in each unit are The sum of the squared errors is calculated using equation 8, and this value is used as the new value of the first variable LI+ls.

Lms =ΣΣDot〜O□)2  ・・・・・・第8
式次のステップ7では、上記学習処理の収束条件を判断
するための上記第1の変数Lmsと第2の変数Lms 
(−1)との比較を行い、上記第1の変数Lmsの値が
上記第2の変数Lms (−1)の値よりも小さい場合
にはステップ8に移って局所的最小値状態を検出するた
めの処理回数を示す上記変数Kが0であるか否かの判定
を行う。
Lms =ΣΣDot〜O□)2 ・・・・・・8th
In the next step 7, the first variable Lms and the second variable Lms are used to determine the convergence condition of the learning process.
(-1), and if the value of the first variable Lms is smaller than the value of the second variable Lms (-1), proceed to step 8 and detect a local minimum value state. It is determined whether the variable K indicating the number of times of processing is 0 or not.

上記ステップ8において、上記変数KがOである場合に
は上記ステップ2に直接戻り、また、上記変数Kが0で
ない場合にはステップ9においてに=に+1としてから
上記ステップ2に戻ってn=0にして、上述の2個の入
力信号パターンpの学習処理を上記ステップ3にて行う
In step 8, if the variable K is O, the process returns directly to step 2; if the variable K is not 0, in step 9, = is set to +1, and then returns to step 2, where n= 0, and the learning process for the two input signal patterns p described above is performed in step 3 above.

また、上記ステップ7において、上記第1の変数Lms
の値が上記第2の変数L#15(−1)の値よりも大き
い場合にはステップ10に移って局所的最小値状態を検
出するための処理回数を示す上記変数にの値をに=に+
1としてからステップ11にて上記変数にの値が2であ
るか否かの判定を行う。
Further, in step 7, the first variable Lms
If the value of is larger than the value of the second variable L#15 (-1), the process moves to step 10 and the value of the variable indicating the number of processing times for detecting the local minimum state is set to = ni+
After setting the value to 1, it is determined in step 11 whether the value of the variable is 2 or not.

上記ステップ11において上記変数にの値が2でない場
合には上記ステップ2に直接戻り、また、上記変数Kが
2である場合には局所的最小値状態に陥っていると判断
してステップ12において上記中間層(Lイ)のユニッ
トを追加する制御を行い、さらに、ステップ13にてに
=Oとしてから上記ステップ2に戻りでn=0にして、
上述の1個の入力信号パターンpの学習処理を」二記ス
テップ3にて行う。
In step 11, if the value of the variable is not 2, the process returns directly to step 2, and if the variable K is 2, it is determined that the state has fallen into a local minimum value state, and in step 12, Control is performed to add the unit of the intermediate layer (L), and further, in step 13, set = O, and then return to step 2, set n = 0,
The above-described learning process for one input signal pattern p is performed in step 3 of ``2''.

なお、上記第3図に示した上記信号処理部(100)に
おいて、上記人力*(Ll)の各ユニット(U。
In the signal processing section (100) shown in FIG. 3, each unit (U.

〜tJ+、)に入力される入力信号パターンpに対して
、上記中間層(LH)の各ユニット(u )II〜u 
Ny)は、その人力の総和netjが、 netj−Σ Σ Wjx*mha・ O+a (t−
*)+θ、       ・・・・・・第9式なる第9
式にて与えられ、この入力の総和neJに対して、 Ohj ftl  = ・・・・・・第10式 なる第10弐のsigmoid関数にて示される出力値
0□ftl  を与える。
~tJ+, ), each unit (u) of the intermediate layer (LH) II~u
Ny), the total human power netj is netj−Σ Σ Wjx*mha・O+a (t−
*)+θ, ・・・・・・Equation 9 is the 9th
For the total sum neJ of inputs, the output value 0□ftl is given by the sigmoid function of the 10th equation 10.

さらに、上記出力層(L、)の各ユニット(uoI〜u
 ox)は、その入力の総和netJが、+θJ   
   ・・・・・第11式なる第11弐にて与えられ、
この入力の総和neJに対して、 す る。
Furthermore, each unit (uoI to u
ox), the sum of its inputs netJ is +θJ
...Given in the 11th formula, 11th 2,
For this input total neJ, do the following.

ここで、上記θ、はしきい値、Nl、NH,N。Here, the above θ is a threshold value, Nl, NH, N.

は、上記各層(L +)、(Lイ)、(LO)の遅延手
段の数をそれぞれ示している。
indicate the number of delay means in each of the layers (L+), (L-i), and (LO).

H比較例 〔比較例1〕 上記第3図に示した信号処理部(100)について、上
記中間層(LH)のユニ7ト数を6個(y=6)に固定
して、学習処理実験を行ったところ、最適最小値状態に
収束させるのに学習処理を極めて多数回繰り返す必要が
あり多大な時間を要するばかりでなく、8回の学習処理
実験で3回は最適最小値状態に収束することなく局所的
最小値状態に陥るという実験結果が得られた。
H Comparative Example [Comparative Example 1] Regarding the signal processing unit (100) shown in FIG. When we performed this, we found that it was necessary to repeat the learning process extremely many times in order to converge to the optimal minimum value state, which not only took a lot of time, but also converged to the optimal minimum value state three times out of eight learning processing experiments. Experimental results were obtained that the system could fall into a local minimum state without any problem.

ごこで、この比較例1における学習処理実験で、局所的
最小値状態に陥ってしまった場合の実験結果の1例を第
6図に示しである。
FIG. 6 shows an example of the experimental results when the learning processing experiment in Comparative Example 1 falls into a local minimum value state.

なお、第6図において、縮軸は二乗誤差の総和LMSを
示し、横軸は学習処理の回数を示している。
In FIG. 6, the reduced axis indicates the sum of squared errors LMS, and the horizontal axis indicates the number of learning processes.

(比較例2) 上記第3図に示した信号処理部(100)について、上
記中間層(Lイ)のユニ7ト数を3個(y=3)に固定
して、学習処理実験を30回行ったところ、第7図に示
す実験結果の1例のように、全ての学習処理実験におい
て最適最小値状態に収束することなく局所的最小値状態
に陥るという実験結果が得られた。
(Comparative Example 2) Regarding the signal processing unit (100) shown in FIG. As shown in one example of the experimental results shown in FIG. 7, in all the learning processing experiments, the learning process fell into a local minimum value state without converging to the optimal minimum value state.

なお、第7図においても、縦軸は二乗誤差の総和LMS
を示し、横軸は学習処理の回数を示している。
In addition, in Fig. 7 as well, the vertical axis is the sum of squared errors LMS
, and the horizontal axis indicates the number of learning processes.

■ 発明の効果 本発明に係る学習処理装置では、学習処理部にて中間層
のユニットの数を増加させながら結合の強さの係数の学
習処理を行う赫ことにより、バノクブロバゲーシジン学
習則に従った学習処理過程における局所的最小値状態を
回避して最適最小値状態に迅速且つ確実に収束する安定
した学習処理を行うことができる。
■ Effects of the Invention In the learning processing device according to the present invention, the learning processing unit performs learning processing of the coefficient of connection strength while increasing the number of units in the intermediate layer. Accordingly, it is possible to perform stable learning processing that quickly and reliably converges to the optimal minimum value state by avoiding local minimum value states in the learning processing process.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係る学習処理装置の構成を概念的に示
すブロック図、第2図Aおよび第2図Bは上記学習処理
装置による学習処理過程における学習処理開始時および
学習処理途中の信号処理部の状態を示す模式図、第3図
は本発明に係る学習処理装置にて学習処理を施した信号
処理部のニューラルネットワークの構成を示す模式図、
第4図は上記学習処理装置を構成する学習処理部による
学習処理過程をの1例を示すフローチャート、第5図は
上記学習処理部による学習処理実験の結果の1例を示す
特性線図、第6図は上記第3図に示した信号処理部のニ
ューラルネットワークの中間層のユニット数を6個に固
定して学習処理実験を行った結果を示す比較例1の特性
線図、第ま図は上記第3図に示した信号処理部のニュー
ラルネットワークの中間層のユニット数を3個に固定し
て学習処理実験を行った結果を示す比較例2の特性線図
、第8図はバノクブロソバゲーション学習則の適用され
るニューラルネットワークの一般的な構成を示す模式図
である。 (10) 、 (100)・・・・・信号処理部(20
)・・・・・・・・・・・学習処理部(L+)・・・・
・・・・・・・入力層(L、)・・・・・・・・・・・
中間層(L、)・・・・・・・・・・・出力層(u++
′u+x)+(uH+”1Jny)+(uo+””Ll
oj ・b會0.−9.ユニット
FIG. 1 is a block diagram conceptually showing the configuration of a learning processing device according to the present invention, and FIGS. 2A and 2B are signals at the start of learning processing and during the learning processing in the learning processing process by the learning processing device. FIG. 3 is a schematic diagram showing the state of the processing section; FIG. 3 is a schematic diagram showing the configuration of the neural network of the signal processing section subjected to learning processing by the learning processing device according to the present invention;
FIG. 4 is a flowchart showing an example of the learning processing process by the learning processing unit constituting the learning processing device; FIG. 5 is a characteristic diagram showing an example of the results of a learning processing experiment by the learning processing unit; Figure 6 is a characteristic diagram of Comparative Example 1 showing the results of a learning processing experiment with the number of units in the intermediate layer of the neural network in the signal processing section shown in Figure 3 fixed at 6; A characteristic diagram of Comparative Example 2 showing the results of a learning processing experiment with the number of units in the intermediate layer of the neural network of the signal processing section fixed at three shown in Fig. 3 above, and Fig. 8 is a graph of Banoku Block FIG. 1 is a schematic diagram showing a general configuration of a neural network to which a severation learning rule is applied. (10), (100)...Signal processing section (20
)・・・・・・・・・・Learning processing unit (L+)・・・・
・・・・・・Input layer (L,)・・・・・・・・・・・・
Middle layer (L,)... Output layer (u++
'u+x)+(uH+"1Jny)+(uo+""Ll
oj ・b meeting 0. -9. unit

Claims (1)

【特許請求の範囲】 それぞれニューロンに対応する信号処理を行う複数のユ
ニットにて構成された入力層、中間層および出力層を備
える信号処理部と、上記入力層に入力される入力信号パ
ターンに対する上記出力層の出力値と教師信号として与
えられる所望の出力値との誤差情報に基づいて上記各ユ
ニットの間の結合の強さの係数を上記出力層側から上記
入力層側に向かって順次に繰り返し計算し、上記結合の
強さの係数の学習処理を行う学習処理部とを備えて成る
学習処理装置において、 上記結合の強さの係数の学習処理過程において上記中間
層のユニットの数を増加させる制御手段を上記学習処理
部に設け、 上記学習処理部にて上記中間層のユニットの数を増加さ
せながら上記結合の強さの係数の学習処理を行うように
したことを特徴とする学習処理装置。
[Scope of Claims] A signal processing unit comprising an input layer, an intermediate layer, and an output layer each configured of a plurality of units that perform signal processing corresponding to a neuron; Based on the error information between the output value of the output layer and the desired output value given as a teacher signal, coefficients of the strength of coupling between the units are sequentially repeated from the output layer side to the input layer side. and a learning processing unit that performs learning processing of the coefficient of connection strength, the number of units of the intermediate layer being increased in the process of learning the coefficient of connection strength. A learning processing device characterized in that a control means is provided in the learning processing unit, and the learning processing unit performs learning processing of the coefficient of the strength of connection while increasing the number of units in the intermediate layer. .
JP63235441A 1988-09-17 1988-09-20 Learning processing device Expired - Lifetime JP2606317B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP63235441A JP2606317B2 (en) 1988-09-20 1988-09-20 Learning processing device
US07/406,733 US5093899A (en) 1988-09-17 1989-09-13 Neural network with normalized learning constant for high-speed stable learning
DE68929102T DE68929102T2 (en) 1988-09-17 1989-09-15 Learning processing system
EP94107842A EP0612033B1 (en) 1988-09-17 1989-09-15 learning processing system
DE68924822T DE68924822T2 (en) 1988-09-17 1989-09-15 Signal processing system and learning processing system.
EP89402544A EP0360674B1 (en) 1988-09-17 1989-09-15 Signal processing system and learning processing system
US07/727,871 US5129039A (en) 1988-09-17 1991-07-10 Recurrent neural network with variable size intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63235441A JP2606317B2 (en) 1988-09-20 1988-09-20 Learning processing device

Publications (2)

Publication Number Publication Date
JPH0283656A true JPH0283656A (en) 1990-03-23
JP2606317B2 JP2606317B2 (en) 1997-04-30

Family

ID=16986159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63235441A Expired - Lifetime JP2606317B2 (en) 1988-09-17 1988-09-20 Learning processing device

Country Status (1)

Country Link
JP (1) JP2606317B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473532A (en) * 1990-07-17 1995-12-05 Toyoda Koki Kabushiki Kaisha Intelligent machining system
JP2019135392A (en) * 2018-02-05 2019-08-15 トヨタ自動車株式会社 Control device for internal combustion engine and device for outputting output value
US10853727B2 (en) 2018-02-05 2020-12-01 Toyota Jidosha Kabushiki Kaisha Machine learning system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110254661A1 (en) 2005-12-23 2011-10-20 Invue Security Products Inc. Programmable security system and method for protecting merchandise
WO2016109281A1 (en) 2014-12-29 2016-07-07 Invue Security Products Inc. Merchandise display security systems and methods

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473532A (en) * 1990-07-17 1995-12-05 Toyoda Koki Kabushiki Kaisha Intelligent machining system
JP2019135392A (en) * 2018-02-05 2019-08-15 トヨタ自動車株式会社 Control device for internal combustion engine and device for outputting output value
US10634081B2 (en) 2018-02-05 2020-04-28 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
US10853727B2 (en) 2018-02-05 2020-12-01 Toyota Jidosha Kabushiki Kaisha Machine learning system

Also Published As

Publication number Publication date
JP2606317B2 (en) 1997-04-30

Similar Documents

Publication Publication Date Title
US5129039A (en) Recurrent neural network with variable size intermediate layer
EP0454037B1 (en) Neural network for processing a plurality of informations and learning method
US9292788B2 (en) Event-driven universal neural network circuit
US20130073493A1 (en) Unsupervised, supervised, and reinforced learning via spiking computation
Li et al. Event-triggered synchronization of multiple discrete-time Markovian jump memristor-based neural networks with mixed mode-dependent delays
JPH0283656A (en) Learning processor
Wang et al. Designing bidirectional associative memories with optimal stability
JPH0272491A (en) Picture conversion processor
JPH04241077A (en) Moving object recognition method
JPH076146A (en) Parallel data processing system
Ritter et al. A new auto-associative memory based on lattice algebra
JPH04237388A (en) Neuro processor
JPH01114899A (en) Dynamic neural network
Mizutani et al. MLP's hidden-node saturations and insensitivity to initial weights in two classification benchmark problems: parity and two-spirals
JPH0535710A (en) Learning method/device for neural network
Weaver et al. Preventing unlearning during online training of feedforward networks
Mandziuk et al. Incremental class learning-an approach to longlife and scalable learning
JP3618007B2 (en) Neural network learning apparatus and learning method
JPH0281161A (en) Signal processor
JPH01116869A (en) Neural network having dynamic programming function
Lou et al. On robust stabilization of a class of neural networks with time-varying delays
JPH04275690A (en) Character recognizing device
Kumaraswamy et al. Multi-Source Subnetwork-Level Transfer in CNNs Using Filter-Trees
CN116881789A (en) Heterogeneous graph neural network classification method based on relational regularization
Takahashi et al. Comparison of defect compensation methods for feedforward neural networks

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080213

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090213

Year of fee payment: 12