[go: up one dir, main page]

JPH05108601A - New network learning device - Google Patents

New network learning device

Info

Publication number
JPH05108601A
JPH05108601A JP3271422A JP27142291A JPH05108601A JP H05108601 A JPH05108601 A JP H05108601A JP 3271422 A JP3271422 A JP 3271422A JP 27142291 A JP27142291 A JP 27142291A JP H05108601 A JPH05108601 A JP H05108601A
Authority
JP
Japan
Prior art keywords
learning
output
progress
neural network
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3271422A
Other languages
Japanese (ja)
Inventor
Hitomi Taguchi
ひとみ 田口
Masanori Kakimoto
正憲 柿本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3271422A priority Critical patent/JPH05108601A/en
Publication of JPH05108601A publication Critical patent/JPH05108601A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 本発明は、ニューラルネットワークからの時
系列データの評価結果をより確からしくするための方式
を提供する。 【構成】 本発明は、ニューラルネットワーク(NW)
で時系列データの学習を行う場合、全ての時系列、パタ
ーンに対してその出力値と教師信号を比較して、全ての
データに基づく学習進度を見るのではなく、学習進度を
評価するに信頼できないデータについては、学習進度評
価の対象から外すこととした。
(57) [Summary] [Object] The present invention provides a method for making the evaluation result of time series data from a neural network more accurate. [Structure] The present invention is a neural network (NW).
When learning time-series data with, compare output values with teacher signals for all time-series and patterns, and do not look at the learning progress based on all data, but rely on evaluating the learning progress. Data that cannot be evaluated are excluded from the targets of the learning progress evaluation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力とそれに対する出
力の関係を学習するニューラルネットワーク学習装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network learning device for learning the relationship between inputs and outputs.

【0002】[0002]

【従来の技術】図10に従来の時系列データを扱うニュ
ーラルネットワーク学習装置を示す。この装置は、入
力とそれに対する望ましい出力(教師信号)を保持する
入出力パターン保持部10、入出力パターン保持部1
0の入力パターンをニューラルネットワーク(NW)に
入力し、出力値を計算する学習実行部11、所定の学
習規則と学習パラメータを保持する学習パラメータ保持
部12、前記学習規則、学習パラメータに基づいて学
習実行部11でのネットワークの出力と教師信号を比較
し、ネットワークの重みを更新する重み更新部13を有
する。
2. Description of the Related Art FIG. 10 shows a conventional neural network learning apparatus that handles time series data. This device includes an input / output pattern holding unit 10 and an input / output pattern holding unit 1 that hold an input and a desired output (teaching signal) for the input.
A learning execution unit 11 that inputs an input pattern of 0 to a neural network (NW) and calculates an output value, a learning parameter holding unit 12 that holds a predetermined learning rule and learning parameters, learning based on the learning rule and learning parameters. The execution unit 11 includes a weight updating unit 13 that compares the output of the network with the teacher signal and updates the weight of the network.

【0003】なお、図11は、この従来の装置で使用さ
れる教師信号、出力値を示す。ここで、従来の装置で
は、学習規則は、全ての時系列、全てのパターンに対し
てその出力値と教師信号を比較している。その差をここ
では学習進度と定義する。学習進度としては、各出力デ
ータの個別の学習進度を示す個別的学習進度と、装置全
体の学習進度を示す全体的学習進度とが定義されるが、
通常、たとえば、「学習進度=0.1まで行った。」と
いうとき、これは全体的学習進度を示し、全ての時系
列、全てのパターンに対してその出力値と教師信号の差
がすべて学習進度0.1を下回ったことを示す。この学
習進度が下がる程学習が進んだことを表し、学習が一定
の信頼できる範囲まで進んだとき、その学習を停止し、
今度は重み更新部13の重みを使って未学習のデータを
評価する。
FIG. 11 shows teacher signals and output values used in this conventional device. Here, in the conventional device, the learning rule compares the output value with the teacher signal for all time series and all patterns. The difference is defined as learning progress here. As the learning progress, an individual learning progress indicating an individual learning progress of each output data and an overall learning progress indicating a learning progress of the entire device are defined.
Usually, for example, when "learning progress = 0.1 has been performed", this indicates the overall learning progress, and all the differences between the output value and the teacher signal are learned for all time series and all patterns. Indicates that the progress was less than 0.1. The lower the learning progress, the more the learning progresses. When the learning progresses to a certain reliable range, the learning is stopped,
This time, the weight of the weight update unit 13 is used to evaluate the unlearned data.

【0004】ここで、従来の学習アルゴリズムを詳細に
説明する。ニューラルネットワークは、通常多層のネッ
トワークになっており、各層は多くのユニットで構成さ
れており、各ユニット間には結合の重みwが定義され
る。各ユニットは図のようにネットワークの出力値を計
算する。
Here, the conventional learning algorithm will be described in detail. A neural network is usually a multi-layer network, each layer is composed of many units, and a connection weight w is defined between each unit. Each unit calculates the output value of the network as shown.

【0005】ここで、あるユニットが複数のユニットか
ら入力を受けた場合、その総和に各ユニットの閾値θを
加えたものが入力値 netとなる(図3参照)。
Here, when a unit receives inputs from a plurality of units, the sum of the input and the threshold value θ of each unit becomes the input value net (see FIG. 3).

【0006】[0006]

【数1】 ユニットの出力値はこの入力の総和net に、活性化関数
を適用して計算される。活性化関数には微分可能な非線
形関数であるシグモイド関数を使用する。すると、ユニ
ットUi の出力値Oi
[Equation 1] The output value of the unit is calculated by applying the activation function to the sum net of this input. A sigmoid function that is a differentiable nonlinear function is used as the activation function. Then, the output value O i of the unit U i

【0007】[0007]

【数2】 となる。バックプロバゲーション法で用いるネットワー
クとして、ここではElman型ネットワークについて
述べる。
[Equation 2] Becomes As a network used in the back propagation method, an Elman type network will be described here.

【0008】Elman型ネットワークとは、図9に示
したように、入力層、隠れ層、出力層を有し、かつ、隠
れ層の出力データを複写して保持するとともに保持した
出力データを再度隠れ層に入力するコンテキスト層を備
えたニューラルネットワーク(NW)である。入力層、
隠れ層、出力層の各層はそれぞれ複数のノードを有して
いる。
As shown in FIG. 9, the Elman-type network has an input layer, a hidden layer, and an output layer. The output data of the hidden layer is copied and held, and the held output data is hidden again. It is a neural network (NW) with a context layer that inputs into layers. Input layer,
Each of the hidden layer and the output layer has a plurality of nodes.

【0009】そして、入力層の各ユニットには入力デー
タが入力される。時刻tにおける隠れ層の出力値sをコ
ンテキスト層にコピーし、このコンテキスト層と入力層
の値が時刻t+1における隠れ層の入力となる。従っ
て、このコンテキスト層が過去の入力データの履歴を保
持することになる。重み更新部はネットワークの出力が
望ましい出力となるように重みを変える。全てのパター
ンp、全ての時系列t、全てのノードの出力値Oと望ま
しい出力値wの平均2乗誤差をとる。
Then, input data is input to each unit of the input layer. The output value s of the hidden layer at time t is copied to the context layer, and the values of this context layer and the input layer become the input of the hidden layer at time t + 1. Therefore, this context layer holds the history of past input data. The weight updating unit changes the weight so that the output of the network becomes a desired output. The mean square error of the output values O of all patterns p, all time series t, and all nodes and the desired output value w is taken.

【0010】[0010]

【数3】 これを全体学習進度といい学習はこの誤差が少なくなる
ようにネットワークのすべての重みを更新する。
[Equation 3] This is called the overall learning progress. In learning, all weights of the network are updated so that this error is reduced.

【0011】[0011]

【発明が解決しようとする課題】しかし、従来のアルゴ
リズムによる時系列データの学習は、全ての時系列、全
てのパターンに対してその出力値と教師信号を比較して
おり、その全てが望む学習進度を下回る場合は必ずしも
多くない。
However, in the learning of time series data by the conventional algorithm, the output value and the teacher signal are compared with respect to all the time series and all the patterns, and the learning desired by all of them is performed. It is not always the case that the progress is lower.

【0012】例えば、図11の例では、10個の出力ノ
ードから10列の時系列データが出力されており、第1
出力ノードからの出力(図の最左列)ではt=0,1で
は個別的な学習進度は1−0.336=0.664、
0.303で、いずれも、0.8を越えていないが、t
=3以降は個別学習進度が0.1以下であり、殆ど学習
が進んでいることがわかる。
For example, in the example of FIG. 11, time series data of 10 columns are output from 10 output nodes.
At the output from the output node (the leftmost column in the figure), the individual learning progress is 1-0.336 = 0.664 at t = 0 and 1,
At 0.303, neither exceeded 0.8, but t
= 3 or later, the individual learning progress is 0.1 or less, and it can be seen that the learning is progressing.

【0013】しかし、従来の方法によれば、全体の学習
進度を見ると0.6までしか学習が進んでいないものと
いう結果となる。この状態は学習回数をかなり増やして
も変わらない。特に、時系列データの認識では、教師信
号として例のようにあるパターン中は教師信号を時系列
全てに共通な物を与える場合が多い。このような例では
パターンが変わり教師信号もまた変わるので最初の2.
3時刻の学習が思うように進まないのも当然だと思われ
る。人間の場合も、今まで長らく見てきたものとまるで
違うものを見せられた時に最初とまどうのと同じであ
る。
However, according to the conventional method, when the overall learning progress is viewed, the result is that the learning has progressed only up to 0.6. This state does not change even if the number of learnings is increased considerably. In particular, in recognition of time-series data, in many cases, as a teacher signal, a teacher signal is commonly given to all time series in a certain pattern. In such an example, the pattern changes and the teacher signal also changes.
It seems natural that learning at the 3rd time does not proceed as expected. In the case of humans, it is the same as the beginning and when it is shown what is totally different from what has been seen for a long time.

【0014】この時系列を認識に応用した時、その時系
列の出力をすべて見てそれからただ一つの何かを認識で
きればよい。そのため、最初の時系列等、信頼できない
部分を無視しても、他の部分で確かな認識結果を表すの
であればそれで十分な場合がある。
When this time series is applied to recognition, it suffices to see all the outputs of the time series and then recognize only one thing. Therefore, even if the unreliable part such as the first time series is ignored, it may be sufficient if the other part shows a reliable recognition result.

【0015】そして、従来の学習アルゴリズムによる
と、学習の進度が曖昧となり、学習をどこで終わらせる
のかが分からず、専ら人間の判断によらざるを得ない結
果となる。例えば、隠れ層のノード数の違いによる結果
の評価を行うとき、学習の進度を同じにしなければなら
ないが、従来の手段ではそれが曖昧となってしまう。
Further, according to the conventional learning algorithm, the progress of learning becomes ambiguous, and it is impossible to know where to end the learning, so that the result must be decided by human beings. For example, when evaluating the results based on the difference in the number of nodes in the hidden layer, it is necessary to make the learning progress the same, which is ambiguous by the conventional means.

【0016】本発明は、以上のような問題に鑑みなされ
たもので、学習の進度を適切に確定でき、装置の信頼性
を高めることを課題とする。
The present invention has been made in view of the above problems, and it is an object of the present invention to appropriately determine the progress of learning and improve the reliability of the apparatus.

【0017】[0017]

【課題を解決するための手段】本発明は前記課題を解決
するため以下の手段を採用した。本発明は、時系列デー
タの学習を行う場合、全ての時系列、パターンに対して
その出力値と教師信号を比較して、全ての出力データに
基づく学習進度を見るのではなく、学習進度を評価する
に信頼できないデータについては、その部分を学習進度
評価の対象から外すこととした。
The present invention adopts the following means in order to solve the above problems. According to the present invention, when learning time-series data, the learning progress based on all the output data is not seen by comparing the output value with the teacher signal for all time-series and patterns. For data that is not reliable for evaluation, we decided to exclude that part from the targets of learning progress evaluation.

【0018】すなわち、図1の原理図に示したように、
本発明のニューラルネットワーク学習装置は、入力に対
して時系列データをそれぞれ出力するとともにそれぞれ
特定の判断結果を示す複数の出力ノード(N)を有する
ニューラルネットワーク(NW)と、前記ニューラルネ
ットワークへの入力とそれに対する望ましい出力である
教師信号を保持する入出力パターン保持部(10)と、
この入出力パターン保持部10の入力パターンをニュー
ラルネットワークに入力し出力値を計算する学習実行部
(11)と、所定の学習規則と学習パラメータを保持す
る学習パラメータ保持部(12)と、前記学習規則及び
学習パラメータに基づいて、前記学習実行部(11)で
のネットワークの出力と入出力パターン保持部(10)
の教師信号とを比較し、ネットワークの重みを更新する
重み更新部(13)と、を備えている。
That is, as shown in the principle diagram of FIG.
The neural network learning device of the present invention outputs a time series data to an input, and has a plurality of output nodes (N) each showing a specific judgment result, and a neural network (NW), and an input to the neural network. And an input / output pattern holding unit (10) for holding a teacher signal that is a desired output for the
A learning execution unit (11) that inputs the input pattern of the input / output pattern holding unit 10 to a neural network and calculates an output value, a learning parameter holding unit (12) that holds predetermined learning rules and learning parameters, and the learning. Based on the rule and the learning parameter, the output of the network in the learning execution unit (11) and the input / output pattern holding unit (10)
And a weight update unit (13) for updating the weight of the network.

【0019】そして、ネットワークの出力と前記教師信
号との誤差により決定される学習の進度を求め、この学
習の進度が一定値以下となったとき学習が完了したもの
とするが、本発明では、前記ニューラルネットワークの
出力をモニタする出力モニタ部(21)を設けるととも
に、この出力モニタ部(21)で、ニューラルネットー
クの出力を監視し、前記出力が学習の進度を進める上で
必要でない場合、その出力を無視して学習進度評価の対
象から外す学習対象選別手段(22)を設けてある。
Then, the degree of learning determined by the error between the output of the network and the teacher signal is obtained, and when the degree of learning becomes less than a certain value, the learning is completed, but in the present invention, An output monitor unit (21) for monitoring the output of the neural network is provided, and the output monitor unit (21) monitors the output of the neural network, and if the output is not necessary for advancing the learning progress, A learning object selection means (22) for ignoring the output and excluding it from the objects of the learning progress evaluation is provided.

【0020】[0020]

【作用】時系列データの学習を行う場合、全ての時系
列、パターンに対してその出力値と教師信号を比較し
て、装置全体の学習進度を求めると、全体の学習進度は
When learning the time-series data, the output values of all the time-series and patterns are compared with the teacher signal to obtain the learning progress of the entire apparatus.

【0021】[0021]

【数4】 で得られ、例えば、図11では0.6である。これに対
し、図11において、第1出力ノードの出力の内、t=
0から2のものを無視することとすると、(1)式は、
[Equation 4] And is 0.6 in FIG. 11, for example. On the other hand, in FIG. 11, among the outputs of the first output node, t =
Assuming that 0 to 2 are ignored, equation (1) becomes

【0022】[0022]

【数5】 となり、全体の学習進度の結果は、0.1となる。な
お、図11において、行は時間毎の出力を示し、列は各
出力ノード毎の時系列データを示す。各出力ノードは指
数字などのパターンを示す。以下、本発明をより具体的
に説明する。 <ニューラルネットワーク>本発明は時系列データ処理
を行うニューラルネットワーク(NW)に適用される
が、このようなニューラルネットワーク(NW)として
階層型のニューラルネットワーク(NW)を使用でき
る。
[Equation 5] And the result of the overall learning progress is 0.1. Note that, in FIG. 11, rows indicate outputs for each time, and columns indicate time series data for each output node. Each output node shows a pattern such as a finger digit. Hereinafter, the present invention will be described more specifically. <Neural Network> The present invention is applied to a neural network (NW) that performs time series data processing, and a hierarchical neural network (NW) can be used as such a neural network (NW).

【0023】階層型ニューラルネットワーク(NW)と
しては、明確に区別された入力層と出力層の2つの層を
少なくとも備えている。元来、この2つの層だけでもあ
る程度の処理は可能であるが、これらの層の間に隠れ層
という1層以上の中間層を入れたものがより有効的であ
る。
The hierarchical neural network (NW) has at least two layers, namely, an input layer and an output layer which are clearly distinguished. Originally, a certain degree of treatment is possible with only these two layers, but it is more effective to have one or more intermediate layers called hidden layers between these layers.

【0024】ニューラルネットワーク(NW)では、入
力パターンに対して望ましい出力がでるようにネットワ
ークを調整する、すなわち学習する必要があり、その方
法の代表的なものがバックプロバケーション法である。
In the neural network (NW), the network needs to be adjusted, that is, learned so that a desired output can be obtained with respect to an input pattern, and a typical method is the back provacuation method.

【0025】本発明ではニューラルネットワーク(N
W)として、入力層、隠れ層、出力層を有する階層型ネ
ットワークを使用できるが、その中でもElman型リ
カレントネットワークを用いた認識に適している。
In the present invention, the neural network (N
As W), a hierarchical network having an input layer, a hidden layer, and an output layer can be used, and among them, it is suitable for recognition using an Elman type recurrent network.

【0026】Elman型リカレントネットワークと
は、図9に示した通りで、その説明は前記したのでここ
では省略する。本発明は、時系列データの出力を各ノー
ド(N)毎に行い、それら個々のデータと教師信号との
誤差を全体について求め、学習の進度としてとらえる場
合に適用されるのであるから、そのような出力を得られ
るニューラルネットワーク(NW)であればどのような
ニューラルネットワーク(NW)でもよく、また、出力
データが時系列データであればよいわけであるから、ニ
ューラルネットワーク(NW)に対する入力は時系列デ
ータであってもそうでなくともよい。 <学習進度評価>本発明において、全体的な学習進度の
評価は、前記(2)式により行う。
The Elman type recurrent network is as shown in FIG. 9, and the description thereof has been given above, so that it is omitted here. The present invention is applied to the case where the time-series data is output for each node (N), and the error between the individual data and the teacher signal is obtained as a whole and is regarded as the progress of learning. Any neural network (NW) can be used as long as it can obtain various outputs, and since the output data can be time-series data, the input to the neural network (NW) is time. It may or may not be series data. <Evaluation of Learning Progress> In the present invention, the evaluation of the overall learning progress is performed by the equation (2).

【0027】すなわち、本発明では、この出力モニタ部
(21)で、ニューラルネットークの出力を監視し、前
記出力が学習の進度を進める上で必要でない場合、その
出力を無視して学習進度評価の対象から外す。この操作
は学習対象選別手段(22)で行う。
That is, in the present invention, the output monitor section (21) monitors the output of the neural network, and when the output is not necessary for advancing the learning progress, the output is ignored and the learning progress is evaluated. Remove from the target. This operation is performed by the learning target selection means (22).

【0028】ここで、出力が学習の進度を進める上で必
要であるか否かは、ニューラルネットワーク学習装置を
操作するオペレータが自己の判断で行う場合、ネットワ
ークに備えたコンピュータが自動的に行う場合がある。
その基準はデータの特質、その他経験側などにより決定
される。
Here, whether the output is necessary for advancing the progress of learning is determined by the operator operating the neural network learning device, or automatically by the computer provided in the network. There is.
The standard is determined by the characteristics of the data and other experiences.

【0029】前者の場合、出力モニタ部(21)とし
て、CRTディスプレイを備え、CRTディスプレイに
映し出される出力をオペレータが見て、不必要なデータ
を学習対象選別手段(22)としての例えばキーボード
などにより学習進度評価対象から外す。
In the former case, a CRT display is provided as the output monitor section (21), and the operator sees the output displayed on the CRT display, and unnecessary data is learned by a keyboard as a learning target selection means (22). Remove from the learning progress evaluation target.

【0030】後者の場合、図8のように、前記モニタ部
(21)はすべての出力データを採取し、前記学習対象
選別手段(22)は、学習進度評価の対象から外すため
の基準値を設定する基準値設定部(24)を有する構造
とする。そして、予めオペレータが基準値設定部(2
4)に所定の基準値を設定しておき、モニタ部(21)
で採取した各出力ノードからのデータと教師信号とが比
較され、出力データとそれに対応する教師信号との誤差
で決まる個別的な学習進度が前記基準値より大きい場合
その出力データを無視する。
In the latter case, as shown in FIG. 8, the monitor section (21) collects all the output data, and the learning target selection means (22) sets a reference value for excluding the learning progress evaluation target. The structure has a reference value setting unit (24) to be set. Then, in advance, the operator sets the reference value setting unit (2
A predetermined reference value is set in 4), and the monitor unit (21)
When the individual learning progress determined by the error between the output data and the corresponding teacher signal is larger than the reference value, the output data is ignored.

【0031】また、前記前者、後者いずれの場合でも、
図2のように、前記学習対象選別手段(22)に、学習
進度評価の対象から外すべき出力データの数を予め設定
する評価定数設定部(23)を備え、この評価定数設定
部(23)で設定された評価定数の数だけ出力データを
無視することができる。
In both the former and latter cases,
As shown in FIG. 2, the learning target selection means (22) is provided with an evaluation constant setting unit (23) for presetting the number of output data to be excluded from the targets of learning progress evaluation, and the evaluation constant setting unit (23). The output data can be ignored by the number of evaluation constants set in.

【0032】ここで、評価定数を可変として学習を繰り
返して、評価定数と学習の進度と認識率(以下の認識評
価で述べる認識の確実性)の関係を求め、一番いい認識
結果を出した評価定数と学習の進度の組を求めて、以
後、その組を認識に使用するとよい。
Here, the learning is repeated with the evaluation constant variable, and the relation between the evaluation constant, the progress of learning and the recognition rate (certainty of recognition described in the recognition evaluation below) is obtained, and the best recognition result is obtained. It is advisable to obtain a pair of the evaluation constant and the progress of learning and then use the pair for recognition.

【0033】ここで、評価定数を変化させる場合、各評
価定数毎の学習の進度を同一にして結果の評価が正しく
行われるようにする。 <認識評価>本発明においては、以上の操作で学習進度
を適切にすることができるが、学習の終了後に以下のよ
うに出力データを評価する履歴判断部(C)を備える場
合に利用できる。
Here, when the evaluation constant is changed, the learning progress is made the same for each evaluation constant so that the evaluation of the result is performed correctly. <Recognition Evaluation> In the present invention, the learning progress can be made appropriate by the above operation, but it can be used when the history judgment unit (C) for evaluating the output data as described below is provided after the learning is completed.

【0034】すなわち、前記ニューラルネットワーク学
習装置に履歴判断部(C)を付加して時系列データ認識
装置を構成する場合であり、履歴判断部(C)として、
図7のように、前記出力ノード(N)から出力される時
系列データを逐次加算してその合計を求める加算手段1
と、各出力ノード(N)の出力合計値の内、最大値を選
択する最大値選択手段2と、出力の評価の基準とすべき
しきい値を予め設定しておくしきい値設定手段3と、前
記最大値選択手段2により選択された最大値と前記しき
い値設定手段3で設定されたしきい値とを比較し、最大
値が予め定めたしきい値より大きいとき、その最大値に
対応するノード(N)を認識結果として出力し、前記最
大値が予め定めたしきい値より小さいとき認識不可能で
あるという評価結果を出力する評価手段4とを備える。
That is, this is a case where a history judging unit (C) is added to the neural network learning device to form a time-series data recognizing device. As the history judging unit (C),
As shown in FIG. 7, adding means 1 for sequentially adding the time series data output from the output node (N) to obtain the total.
A maximum value selecting means 2 for selecting the maximum value among the output total values of the output nodes (N), and a threshold value setting means 3 for presetting a threshold value to be used as a reference for output evaluation. And the maximum value selected by the maximum value selecting means 2 and the threshold value set by the threshold value setting means 3 are compared, and when the maximum value is larger than a predetermined threshold value, the maximum value The evaluation means 4 outputs the node (N) corresponding to the above as a recognition result, and outputs the evaluation result that the recognition is impossible when the maximum value is smaller than a predetermined threshold value.

【0035】この場合、この前記出力ノード(N)から
出力される時系列データを各出力ノード(N)毎に逐次
加算してその合計を求め、次に、各出力ノード(N)の
出力合計値の内、最大値を選択し、その最大値が予め定
めたしきい値より大きいとき、その最大値に対応するノ
ード(N)を認識結果とし、前記最大値が予め定めたし
きい値より小さいとき認識不可能とするのである。
In this case, the time-series data output from the output node (N) is sequentially added to each output node (N) to obtain the total, and then the output total of each output node (N) is calculated. Of the values, the maximum value is selected, and when the maximum value is larger than a predetermined threshold value, the node (N) corresponding to the maximum value is set as the recognition result, and the maximum value is larger than the predetermined threshold value. When it is small, it is unrecognizable.

【0036】この場合、本発明に従って無視してよいよ
うなデータは、教師信号との差が大きいデータであるか
ら、その値が小さく、合計の際に加算の対象にされなく
とも体勢に影響を与えない。よって、このような認識に
本発明を利用することは有用である。前記「発明が解決
しようとする課題」の項で「最初の時系列等、信頼でき
ない部分を無視しても、他の部分で確かな認識結果を表
すのであればそれで十分な場合がある。」と言ったのは
このような場合のことである。
In this case, since the data that can be ignored according to the present invention has a large difference from the teacher signal, its value is small and influences the posture even if it is not added in the summation. Don't give Therefore, it is useful to utilize the present invention for such recognition. In the "Problems to be solved by the invention" section, "Ignoring unreliable parts such as the first time series may be sufficient if other parts show a reliable recognition result." That is the case in such a case.

【0037】理解を容易にするため、例えば、指の曲げ
角度、手首の捻り角度を入力データとして、グー、チョ
キ、パーという人の身振りをニューラルネットワーク
(NW)で認識する場合を考える。
To facilitate understanding, let us consider a case in which a neural network (NW) recognizes the gestures of a person such as goo, choki, and par using the bending angle of the finger and the twisting angle of the wrist as input data.

【0038】ニューラルネットワーク(NW)の出力ノ
ード(N)には、それぞれ対応ノード(N)毎にその意
味するところが定義されている。例えば、図6のよう
に、出力ノード(N)が10個ある場合、1のノード
(N)は「グー」、4のノード(N)は「チョキ」、8
のノード(N)は「パー」を意味し、他のノードは他の
パターンを意味するものと定義される。
The meaning of the output node (N) of the neural network (NW) is defined for each corresponding node (N). For example, as shown in FIG. 6, when there are ten output nodes (N), the first node (N) is “goo”, the fourth node (N) is “choki”, 8
Node (N) is defined to mean "par", and other nodes are defined to mean other patterns.

【0039】そして、出力が「1」であるとき、その入
力されたデータは対応するノード(N)に定義された
「意味あい」であると認識される。またここでは、t=
0から29、合計30の時系列データが各ノード(N)
からそれぞれ出力されるものとする。
When the output is "1", the input data is recognized as "meaning" defined in the corresponding node (N). Also here, t =
Time series data of 0 to 29, 30 in total, is for each node (N)
Shall be output respectively.

【0040】そして、各出力ノード(N)から出力され
る時系列の出力値を各出力ノード(N)毎に逐次加算し
てその合計を求め、各出力ノード(N)の出力合計値の
内、最大値を選択する。
Then, the time-series output values output from each output node (N) are sequentially added to each output node (N) to obtain the sum, and the total output value of each output node (N) is calculated. , Select the maximum value.

【0041】ここではt=14になるまで、すなわち、
15個の時系列データを各出力ノード(N)から得たも
のとし、その時の各ノード(N)の合計値が第1ノード
=9.375、第2ノード=0.000、第3ノード=
0.000、第4ノード=0.174、第5ノード=
0.632、第6ノード=0.096、第7ノード=
0.000、第8ノード=4.317、第9ノード=
0.501、第10ノード=0.000であったとす
る。最大値は9.375であるから、第1ノード(N)
が最も確からしい。
Here, until t = 14, that is,
It is assumed that 15 pieces of time series data are obtained from each output node (N), and the total value of each node (N) at that time is 1st node = 9.375, 2nd node = 0.000, 3rd node =
0.000, 4th node = 0.174, 5th node =
0.632, 6th node = 0.096, 7th node =
0.000, 8th node = 4.317, 9th node =
It is assumed that 0.501 and the tenth node = 0.000. Since the maximum value is 9.375, the first node (N)
Seems most certain.

【0042】そこで、この最大値が選ばれるが、この選
ばれた最大値は予め定めたしきい値より大きいか否かが
比較される。このしきい値とは、時系列データを評価す
るに当たって、ある一定の値以上であれば、その出力時
系列データが確からしいと評価できるという場合の基準
となる値であり、経験則で定まるものである。従って、
何をもってしきい値とするかは、統計処理等により決定
できるであろう。なお、ここでは、しきい値を「8.
0」とする。
Then, the maximum value is selected, and it is compared whether or not the selected maximum value is larger than a predetermined threshold value. This threshold value is a reference value when the output time-series data can be evaluated as probable if it is a certain value or more when evaluating the time-series data, and is determined by an empirical rule. Is. Therefore,
What is used as the threshold value can be determined by statistical processing or the like. Here, the threshold value is set to "8.
0 ”.

【0043】最大値がしきい値より大きいとき、その最
大値に対応するノード(N)を認識結果とする。ここで
は前記最大値は9.375で前記しきい値より大きいの
で、前記入力は「グー」を表すものであったと認識す
る。
When the maximum value is larger than the threshold value, the node (N) corresponding to the maximum value is set as the recognition result. Here, the maximum value is 9.375, which is larger than the threshold value, so that it is recognized that the input represents “goo”.

【0044】一方、前記最大値が予め定めたしきい値よ
り小さいときは、前記入力は認識不可能、すなわち、入
力データは何を表すのか不明であると結論づける。な
お、しきい値より大きいあるいは小さいと比較すると
き、しきい値と同一値をいずれに判断するかは、設定者
の任意でよい。
On the other hand, when the maximum value is smaller than a predetermined threshold value, it is concluded that the input is unrecognizable, that is, it is unknown what the input data represents. It should be noted that when comparing with a value greater than or less than the threshold value, which of the same values as the threshold value is determined may be arbitrary by the setter.

【0045】また、前記しきい値はある一回の認識モー
ド中、共通でなくともよく、動的に変えることができ
る。すなわち、しきい値を6.0として、一度前記処理
を行い、処理結果が認識不可能であった場合、再度、し
きい値を7.0に変えて処理を繰り返すというように、
満足する結果が得られるまで、しきい値の設定を繰り返
すことができる。
The threshold does not have to be common during a certain recognition mode and can be changed dynamically. That is, the threshold value is set to 6.0, the processing is performed once, and when the processing result is unrecognizable, the threshold value is changed to 7.0 again and the processing is repeated.
The threshold setting can be repeated until satisfactory results are obtained.

【0046】また、前記しきい値は各出力ノード(N)
全てに共通でも、個別でも設定できる。例えば、5つの
出力ノード(N)があった場合、各出力ノード(N)毎
にしきい値を別個に定め、最大値に対応した出力ノード
(N)が例えば3番目のノード(N)であれば、そのノ
ード(N)に対応して定めたしきい値と前記最大値を比
較して、出力の評価をするようにする。
The threshold value is set at each output node (N).
It can be set for all or individually. For example, when there are five output nodes (N), a threshold value is separately set for each output node (N), and the output node (N) corresponding to the maximum value is, for example, the third node (N). For example, the threshold value corresponding to the node (N) is compared with the maximum value to evaluate the output.

【0047】さらに、しきい値と最大値の比較判断は、
全ての出力が完了してからでも完了する前でも行うこと
ができる。すなわち、前記ニューラルネットワーク
(NW)への入力がしおわり、出力値がすべて出力され
た後、各出力ノード(N)の出力値を合計し、最大値を
求めて前記のような比較処理による判定を行う場合、及
び、前記ニューラルネットワーク(NW)への入力が
しおわり、出力値がすべて出力される前に、各出力ノー
ド(N)の出力値を逐次合計し、最大値を求め、その最
大値がしきい値を越えた時点でその最大値に対応するノ
ード(N)を認識結果とする場合がある。 <隠れ層のノード数と学習の進度と認識率との関係>と
ころで、学習にあたっては、隠れ層のノード数が最終的
な認識率に影響する。学習にあたり、隠れ層のノード数
を変えて学習を繰り返し、最終的には、各ノード数の各
学習の進度の保存した重みを使ってそれぞれ認識率を求
め、一番いい認識結果を出した隠れ層の数と学習の進度
の組を求め、これをそれ以後の認識に使えば一番良い認
識率を得られる。
Furthermore, the comparison judgment between the threshold value and the maximum value is
It can be done after all outputs are completed or before. That is, after the input to the neural network (NW) has finished and all the output values have been output, the output values of each output node (N) are summed, and the maximum value is obtained to make the determination by the comparison processing as described above. And when the input to the neural network (NW) is finished and all the output values are output, the output values of the output nodes (N) are sequentially summed to obtain the maximum value, and the maximum value is calculated. When the value exceeds the threshold value, the node (N) corresponding to the maximum value may be the recognition result. <Relationship Between Number of Nodes in Hidden Layer, Progress of Learning, and Recognition Rate> In learning, the number of nodes in the hidden layer affects the final recognition rate. In learning, the number of nodes in the hidden layer is changed and the learning is repeated.Finally, the recognition rate is calculated using the saved weight of the progress of each learning of each node number, and the hidden result that gives the best recognition result. The best recognition rate can be obtained by finding the set of the number of layers and the progress of learning and using this for subsequent recognition.

【0048】すなわち、隠れ層のノード数を可変として
学習を繰り返して、ノード数と学習の進度と認識率との
関係を求めて、最適な認識率に対応する、隠れ層ノード
数と学習の進度の組を求め、以後、その組を使用して認
識するようにする。
That is, the learning is repeated with the number of hidden layer nodes being variable, the relationship between the number of nodes, the progress of learning, and the recognition rate is obtained, and the number of hidden layer nodes and the learning rate corresponding to the optimum recognition rate are obtained. , And then use that set for recognition.

【0049】なお、隠れ層のノード数を変化させる場
合、各ノード数毎の学習の進度を同一にして結果の評価
が正しく行われるようにする。
When the number of nodes in the hidden layer is changed, the learning progress is made the same for each number of nodes so that the results can be correctly evaluated.

【0050】[0050]

【実施例】以下、本発明の実施例を図面を参照して説明
する。 <実施例1>本実施例は、図2に示したように、階層型
ニューラルネットワーク(NW)を用いた時系列データ
認識装置であり、ニューラルネットワーク(NW)は学
習部(A)を有し、この学習部(A)での学習が終了し
た後、重み更新部13の重みを使って未学習のデータを
評価する。
Embodiments of the present invention will be described below with reference to the drawings. <Embodiment 1> This embodiment is a time-series data recognition device using a hierarchical neural network (NW) as shown in FIG. 2, and the neural network (NW) has a learning section (A). After the learning in the learning unit (A) is completed, the unlearned data is evaluated using the weight of the weight updating unit 13.

【0051】まず、ニューラルネットワーク(NW)
は、入力層、隠れ層、出力層を有し、各層はそれぞれ複
数のノード(ユニット)を有している。各層を構成する
複数のユニットは互いにある重みで結合されている。こ
のネットワークに入力パターンと望ましい出力パターン
(教師信号)の組を与えることによりネットワークの重
みを学習させることができる。
First, a neural network (NW)
Has an input layer, a hidden layer, and an output layer, and each layer has a plurality of nodes (units). The plurality of units forming each layer are connected to each other with a certain weight. The weight of the network can be learned by giving a set of an input pattern and a desired output pattern (teacher signal) to this network.

【0052】学習は以下のように進められる。まず、ネ
ットワークにある入力パターンを与え出力を得る。その
学習が正しくなければ正しい(望ましい)出力値をネッ
トワークに教える。するとネットワークは正しい出力値
と実際の出力値が減少するようにネットワークの内部構
造(結合の強さ=重み)を調整する。これを何度も繰り
返すことにより、ネットワークはある入出力関係を満た
すような重みを自動的に学習していく。この学習アルゴ
リズムをバックプロバケーション法である。
Learning proceeds as follows. First, an input pattern in the network is given and an output is obtained. If the learning is not correct, teach the network the correct (desired) output value. Then, the network adjusts the internal structure of the network (coupling strength = weight) so that the correct output value and the actual output value decrease. By repeating this many times, the network automatically learns the weights that satisfy a certain input / output relationship. This learning algorithm is the back pro vacation method.

【0053】このようにして学習したネットワークを用
いると、学習させた入力パターンについては表示した正
しい出力を返すが更に学習させていない入力パターンに
ついても学習した入出力パターンを補間した出力パター
ンを返す。これがニューラルネットワーク(NW)の大
きな特徴となっている。
When the network learned in this way is used, the correct output displayed is returned for the learned input pattern, but the output pattern obtained by interpolating the learned input / output pattern is returned for the input pattern not further learned. This is a major feature of neural networks (NW).

【0054】このように、ニューラルネットワーク(N
W)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを評価する。
Thus, the neural network (N
W) has a learning unit (A), and evaluates unlearned data using the weight of the weight updating unit 13 after the learning in this learning unit (A) is completed.

【0055】ここで、学習部(A)は、前記ニューラル
ネットワーク(NW)への入力とそれに対する望ましい
出力である教師信号を保持する入出力パターン保持部1
0と、この入出力パターン保持部10の入力パターンを
ニューラルネットワーク(NW)に入力し出力値を計算
する学習実行部11と、所定の学習規則と学習パラメー
タを保持する学習パラメータ保持部12と、前記学習規
則及び学習パラメータに基づいて、前記学習実行部11
でのネットワークの出力と入出力パターン保持部10の
教師信号とを比較し、ネットワークの重みを更新する重
み更新部13と、更新されたネットワークの重みを任意
の学習段階で記憶する結合の重み記憶部14を備えてい
る。
Here, the learning section (A) is an input / output pattern holding section 1 for holding an input to the neural network (NW) and a teacher signal which is a desired output for the input.
0, a learning execution unit 11 that inputs an input pattern of the input / output pattern holding unit 10 to a neural network (NW) and calculates an output value, a learning parameter holding unit 12 that holds predetermined learning rules and learning parameters, Based on the learning rule and the learning parameter, the learning execution unit 11
The output of the network and the teacher signal of the input / output pattern holding unit 10 are compared, and the weight updating unit 13 that updates the network weight, and the connection weight storage that stores the updated network weight at an arbitrary learning stage The unit 14 is provided.

【0056】学習実行部11をさらに詳細に説明する。
前記したようにニューラルネットワーク(NW)は多層
のネットワーク構造となっていて、各層は多くのユニッ
トから構成され、各ユニット間にはそれぞれ結合の重み
Wが定義される。
The learning execution unit 11 will be described in more detail.
As described above, the neural network (NW) has a multi-layered network structure, each layer is composed of many units, and the coupling weight W is defined between each unit.

【0057】各ユニットは以下に示すようにしてネット
ワークの出力値を計算する。あるユニットが複数のユニ
ットから入力を受けた場合、その総和に各ユニットの閾
値θ(前記した本発明でいう最大値と比較すべきしきい
値とは区別される)を加えたものが入力値 netとなる
(図3参照)。
Each unit calculates the output value of the network as shown below. When a unit receives inputs from a plurality of units, the sum of the sums and the threshold value θ of each unit (distinguished from the threshold value to be compared with the above-mentioned maximum value in the present invention) are input values. It will be net (see Figure 3).

【0058】[0058]

【数6】 ユニットの出力値はこの入力の総和net に、活性化関数
を適用して計算される。活性化関数には微分可能な非線
形関数であるシグモイド関数を使用する。すると、ユニ
ットUi の出力値Oi
[Equation 6] The output value of the unit is calculated by applying the activation function to the sum net of this input. A sigmoid function that is a differentiable nonlinear function is used as the activation function. Then, the output value O i of the unit U i

【0059】[0059]

【数7】 となる。バックプロバゲーション法で用いるネットワー
クは、前記したような多層のネットワークであるが、こ
こでは図9のような入力層、隠れ層、出力層の3層から
なる場合について述べる。
[Equation 7] Becomes The network used in the back-propagation method is a multilayer network as described above, but here, a case will be described in which it has three layers of an input layer, a hidden layer, and an output layer as shown in FIG.

【0060】隠れ層の各ユニットは入力層のすべてのユ
ニットと結合している。出力層の各ユニットは入力層と
隠れ層の各ユニットとすべて結合している。そして各層
内でのユニット同士の結合はない。
Each unit in the hidden layer is associated with every unit in the input layer. Each unit in the output layer is connected to each unit in the input layer and hidden layer. And there is no bond between units within each layer.

【0061】入力層の各ユニットにはネットワークへの
入力データが与えられる。従って、隠れ層の各ユニット
の出力値hは、
Input data to the network is given to each unit in the input layer. Therefore, the output value h of each unit in the hidden layer is

【0062】[0062]

【数8】 となる。また、出力層の各ユニットの出力値oは、[Equation 8] Becomes The output value o of each unit in the output layer is

【0063】[0063]

【数9】 となる。次に、重み更新部13を更に詳細に説明する。[Equation 9] Becomes Next, the weight updating unit 13 will be described in more detail.

【0064】この重み更新部13ではネットワークの出
力が望ましい出力となるようにネットワークの重みを変
える。あるパターンpを与えた時の実際の出力値
(opi)と、望ましい出力値(tpi)の平均2乗誤差E
pをとる。
The weight updating unit 13 changes the weight of the network so that the output of the network becomes a desired output. Mean square error E between the actual output value (o pi ) when a certain pattern p is given and the desired output value (t pi ).
take p .

【0065】[0065]

【数10】 学習させるためには、この誤差を減らすように、ネット
ワーク中の全ての重みを変える。
[Equation 10] In order to train, all weights in the network are changed to reduce this error.

【0066】出力層についての学習規則はThe learning rule for the output layer is

【0067】[0067]

【数11】 隠れ層についての学習規則は[Equation 11] The learning rule for hidden layers is

【0068】[0068]

【数12】 である。次に結合の重み記憶部14はネットワークの重
みを任意の学習段階で保存する。
[Equation 12] Is. Next, the connection weight storage unit 14 stores the network weight at any learning stage.

【0069】時系列出力データの履歴判断を行う認識装
置は、重み記憶部14に保存してあるネットワークの重
みをロードし、入力パターンを与えると、ネットワーク
の出力を計算する。以上のように学習したネットワーク
を用いると、学習させた入力パターンについては正しい
出力を返すが、更に学習させていない入力パターンにつ
いても学習した入出力パターンを基にしたような出力パ
ターンを返す。
The recognition device for determining the history of the time-series output data loads the network weight stored in the weight storage unit 14 and gives the input pattern to calculate the output of the network. When the network learned as described above is used, a correct output is returned for a learned input pattern, but an output pattern based on the learned input / output pattern is returned for an input pattern that has not been learned.

【0070】以上のシステムで、人の手の姿勢、状態の
複数のパターンを学習させる。例えば、10本の指で数
字を表した状態を学習する。片手の人差し指だけが立っ
ているときが1、中指が立つと2、薬指も立つと3、さ
らに小指が立って4、親指も立って5、というように、
全てのパターンに対して少しずつ変化した手形状データ
を複数パターン測定し、全体の学習進度が0.1に達し
たとき学習が完了するものとする。
With the above system, a plurality of patterns of postures and states of human hands are learned. For example, the state in which a number is expressed with 10 fingers is learned. 1 when only the index finger of one hand is standing, 2 when the middle finger is standing, 3 when the ring finger is standing, 4 further the little finger stands, 5 the thumb stands, and so on.
It is assumed that a plurality of patterns of hand shape data that have changed little by little for all patterns are measured and learning is completed when the overall learning progress reaches 0.1.

【0071】当初、全ての時系列、パターンに対してそ
の出力値と教師信号を比較して、装置全体の学習進度を
求めると、全体の学習進度は、
Initially, by comparing the output value with the teacher signal for all time series and patterns to obtain the learning progress of the entire apparatus, the overall learning progress is

【0072】[0072]

【数13】 で得られ、例えば、これは従来の場合と同様で、図11
のように全体の学習進度は0.6であった。
[Equation 13] For example, this is similar to the conventional case, and
The overall learning progress was 0.6.

【0073】そこで、図2において、評価定数を3に設
定し、全ての出力ノードを対象として、各出力ノードの
出力の内、t=0から2のものを無視することした。す
ると、(1)式は、
Therefore, in FIG. 2, the evaluation constant is set to 3 and all the output nodes are targeted and the outputs from t = 0 to 2 are ignored. Then, equation (1) becomes

【0074】[0074]

【数14】 となり、全体の学習進度の結果は、図5に示したように
0.1となった。なお、図5には指により数字の1を表
す教師信号を示す。各ノード(N)は数字の1から10
を示すもので、数字の1を表す出力としては、第1の出
力ノード(N)からの出力値が時系列的にすべて「1.
000」で、他のノード(N)からの出力値はすべて
「0.000」であるのが望ましい出力である。
[Equation 14] And the result of the overall learning progress was 0.1 as shown in FIG. Note that FIG. 5 shows a teacher signal representing the numeral 1 by the finger. Each node (N) is a number from 1 to 10
In the output indicating the numeral 1, all the output values from the first output node (N) are “1.
000 ", the output values from the other nodes (N) are all preferably" 0.000 ".

【0075】以上の結果、学習の進度が0.1となって
学習が十分に行われたと判断したので、以後は未学習デ
ータの認識に本装置を使用した。この装置に対し、未学
習のデータを入力したところ図6のような出力結果が得
られた。
As a result of the above, since it was judged that the learning progress was 0.1 and the learning was sufficiently performed, the present apparatus was used for the recognition of unlearned data thereafter. When unlearned data was input to this device, an output result as shown in FIG. 6 was obtained.

【0076】この出力結果を評価すると、第8番目の出
力ノード(N)では、t=2のときの出力が0.90
0、t=3,4,5のときの出力がそれぞれ0.955
であり、よって、t=5の時点では、第8番目のノード
(N)がときの出力が最も重み付けが大きく、認識結果
は「8」であると判断するのが妥当なように思える。
When this output result is evaluated, the output at t = 2 is 0.90 at the eighth output node (N).
The output at 0, t = 3,4,5 is 0.955 respectively.
Therefore, at t = 5, it seems reasonable to judge that the output when the eighth node (N) is the most weighted and the recognition result is “8”.

【0077】しかし、さらに出力を続けていくと、第1
番目のノード(N)の出力は、t=7のとき0.90
0、t=8のとき0.925、t=9及び10のときそ
れぞれ0.950であり、ここでは第1番目のノード
(N)も認識結果の判定の重みが大きくなり、よって、
t=10の時点では、第8番目のノード(N)を認識結
果として「8」であるとの判定をすべきなのか、第1番
目のノード(N)を認識結果として「1」であるとの判
定をすべきなのか必ずしも明確ではない。
However, when the output is further continued, the first
The output of the nth node (N) is 0.90 when t = 7.
It is 0.925 when 0, t = 8, and 0.950 when t = 9 and 10, respectively. Here, the weight of the recognition result of the first node (N) also becomes large, and therefore,
At the time point of t = 10, it should be judged that the eighth node (N) is “8” as the recognition result, or the first node (N) is “1” as the recognition result. It is not always clear whether or not to judge.

【0078】そこで、本実施例では、履歴判断部(c)
として、図7のように、この前記出力ノード(N)から
出力される時系列データを逐次加算してその合計を求め
る加算手段1と、各出力ノード(N)の出力合計値の
内、最大値を選択する最大値選択手段2と、出力の評価
の基準とすべきしきい値を予め設定しておくしきい値設
定手段3と、前記最大値選択手段2により選択された最
大値と前記しきい値設定手段3で設定されたしきい値と
を比較し、最大値が予め定めたしきい値より大きいと
き、その最大値に対応するノード(N)を認識結果とし
て出力し、前記最大値が予め定めたしきい値より小さい
とき認識不可能であるという評価結果を出力する評価手
段4とを設けた。
Therefore, in this embodiment, the history judgment section (c)
As shown in FIG. 7, the maximum of the addition means 1 for sequentially adding the time-series data output from the output node (N) to obtain the total and the output total value of each output node (N) A maximum value selecting means 2 for selecting a value, a threshold value setting means 3 for presetting a threshold value to be a reference for evaluation of output, a maximum value selected by the maximum value selecting means 2 and the above The threshold value set by the threshold value setting means 3 is compared, and when the maximum value is larger than a predetermined threshold value, the node (N) corresponding to the maximum value is output as a recognition result, and the maximum value is output. The evaluation means 4 is provided for outputting the evaluation result that the value cannot be recognized when the value is smaller than a predetermined threshold value.

【0079】前記しきい値設定手段3には、しきい値と
して8.0を設定した。そして、図6のように、t=1
5の段階での各出力の合計を加算手段1で求め、最大値
を最大値選択手段2で選択した。
A threshold value of 8.0 was set in the threshold value setting means 3. Then, as shown in FIG. 6, t = 1
The sum of each output at the stage of 5 was obtained by the adding means 1, and the maximum value was selected by the maximum value selecting means 2.

【0080】最大値は第1ノード(N)の9.375で
あるので、この9.375と前記しきい値が評価手段4
で比較され、9.375>8.0なので、最大値がしき
い値より大きいと判断された。このため、最終結果とし
て、入力された未学習データは第1ノード(N)に対応
する結果であると認識された。
Since the maximum value is 9.375 of the first node (N), this 9.375 and the threshold value are the evaluation means 4.
It was judged that the maximum value was larger than the threshold value, since 9.375> 8.0. Therefore, as the final result, the input unlearned data was recognized as the result corresponding to the first node (N).

【0081】このように、出力結果が不安定な場合で
も、出力結果の判定が容易となり、最も確からしい結果
を出力できるようになった。本発明ではこのような認識
に使用するニューラルネットワーク学習装置に好適であ
る。 <実施例2>次に、隠れ層のノード数を可変として最適
な隠れ層ノード数と学習進度と認識率との関係を導く場
合の例を説明する。
As described above, even when the output result is unstable, it is easy to judge the output result, and the most probable result can be output. The present invention is suitable for a neural network learning device used for such recognition. Second Embodiment Next, an example in which the optimum number of hidden layer nodes, the learning progress, and the recognition rate are derived by varying the number of hidden layer nodes will be described.

【0082】本実施例は、人間の手の動作、例えば手話
の認識にElman型リカレント・ニューラルネットワ
ーク(NW)を使用した場合の例である。ここで使用し
た、リカレント・ニューラルネットワーク(NW)は、
図9のように、入力層、隠れ層、出力層を有するととも
に、隠れ層の出力データを複写して保持し、さらに、再
度この出力データを隠れ層に入力するコンテキスト層を
備えたニューラルネットワーク(NW)である。
The present embodiment is an example in which an Elman type recurrent neural network (NW) is used for recognizing a human hand motion, for example, sign language. The recurrent neural network (NW) used here is
As shown in FIG. 9, a neural network having an input layer, a hidden layer, and an output layer, having output data of the hidden layer copied and held, and further having a context layer for inputting the output data to the hidden layer again ( NW).

【0083】入力層、隠れ層、出力層による動作例は、
実施例1で説明したのと原則として同様で、学習はバッ
クプロバゲーション法による。リカレント・ニューラル
ネットワーク(NW)ではこれに加えて、コンテキスト
層が過去の入力情報を保持するため、認識効率が高い。
The operation examples of the input layer, hidden layer, and output layer are as follows.
The principle is the same as that described in the first embodiment, and the learning is performed by the back-propagation method. In addition to this, the recurrent neural network (NW) has high recognition efficiency because the context layer holds past input information.

【0084】コンテキスト層は1時刻前の隠れ層の値を
コピーしたものであり、これが次の入力データとして加
わることになる。このフィードバック機能により、コン
テキスト層は過去の入力データのパターンを保持できる
ものである。
The context layer is a copy of the hidden layer value one hour before, and this will be added as the next input data. By this feedback function, the context layer can hold the pattern of past input data.

【0085】このようなネットワークにおいて、入力は
手の曲げ角度や位置といった手に関する時系列データで
あり、出力は図5に示すような教師信号を用いる。各ノ
ード(N)(縦の列)が各手話の種類に対応する。
In such a network, the input is time-series data regarding the hand such as the bending angle and the position of the hand, and the output uses a teacher signal as shown in FIG. Each node (N) (vertical column) corresponds to each sign language type.

【0086】この例ではリカレントニュートラルネット
ワークを手話という身振りの認識に用いる場合であり、
認識率(正当率)が大きく問題になってくる。この認識
率は隠れ層のノードの数によって影響がでる。一番認識
率が良い最適なノードの数を見つける必要がある。この
最適なノードの数を見つけるためには、同じ入出力デー
タ(入力と教師信号)に対して、さまざまなノードの数
で学習を行い、学習の進度を同じにして認識率を評価す
る必要がある。
In this example, the recurrent neutral network is used for recognizing the gesture of sign language.
The recognition rate (validity rate) becomes a big problem. This recognition rate is affected by the number of hidden layer nodes. We need to find the optimal number of nodes with the best recognition rate. In order to find this optimal number of nodes, it is necessary to learn the same input / output data (input and teacher signal) with various numbers of nodes and evaluate the recognition rate with the same learning progress. is there.

【0087】また、隠れ層のノードの数と平行して、学
習の進度は進めば進むほど、認識率が上がるかというと
必ずしもそうではなく、オーバーランニング(学習しす
ぎ)すると逆に認識率が下がるため、最適な学習の進度
を求める必要もある。
In parallel with the number of nodes in the hidden layer, the higher the learning progress, the higher the recognition rate does not necessarily mean. If overrunning (too much learning), the recognition rate increases. Since it decreases, it is necessary to find the optimal learning progress.

【0088】これはノードの数を変えて行う学習の中
で、例えばノード数が100個の時、まず、学習の進度
(教師信号と実際の出力値との誤差)を0.9に設定し
て、学習しこれを満足したら、この時の重みを保存、ま
た続けて、学習の進度を0.8に設定して、学習し、学
習の進度が0.05までいったら学習を終了させる。
In the learning carried out by changing the number of nodes, for example, when the number of nodes is 100, first, the learning progress (the error between the teacher signal and the actual output value) is set to 0.9. Then, when learning is satisfied, the weight at this time is saved, and the learning progress is set to 0.8, learning is performed, and when the learning progress reaches 0.05, the learning is terminated.

【0089】次にノード数を変え、同じことをする。最
終的には、各ノード数の各学習の進度の保存した重みを
使ってそれぞれ認識率を求め、一番いい認識結果を出し
た隠れ層の数と学習の進度の組を求める。これを今後の
認識に使えば一番良い認識率を得られることになる。
Next, the number of nodes is changed and the same is done. Finally, the recognition rate is calculated using the stored weight of the learning progress of each node number, and the pair of the number of hidden layers and the learning progress that gives the best recognition result is calculated. If this is used for future recognition, the best recognition rate will be obtained.

【0090】ここで、学習の進度は、実際の出力と教師
信号の差(=エラー)をある範囲に収めたいという値で
ある。また、認識率評価は学習終了後テストパターン
(未学習のデータを入力したときの結果が正しく出てい
るか否かを判定することである。)実際の出力と教師信
号との誤差(エラー)が、時系列データの学習の場合、
全てのパターン、全ての時系列、全ての出力ノードに関
して設定した学習の進度の値よりも小さくなった時、そ
の値まで学習が進んだということになる。
Here, the learning progress is a value for which the difference (= error) between the actual output and the teacher signal is desired to fall within a certain range. Further, the recognition rate evaluation is a test pattern after completion of learning (determining whether or not the result when inputting unlearned data is correct.) There is an error (error) between the actual output and the teacher signal. , For learning time series data,
When it becomes smaller than the learning progress value set for all patterns, all time series, and all output nodes, it means that learning has advanced to that value.

【0091】以下、本実施例における具体例を説明す
る。同じ出力パターンの学習に関して、隠れ層のノード
数と学習の進度を変え、学習させた場合の各認識率を、
従来法と本発明の方法で比較して見る。
A specific example of this embodiment will be described below. Regarding learning of the same output pattern, the recognition rate when learning is performed by changing the number of hidden layer nodes and the learning progress,
A comparison will be made between the conventional method and the method of the present invention.

【0092】従来法では学習の進度を0.7に設定して
も、収束しない(学習の進度を満足しない、学習が終了
しない)場合が多々あり、たとえ満足したとしても膨大
な時間がかかってしまう。多くは、時系列の最初の3個
位が学習の進度を満足していなくて、あとはすべて、学
習の進度を満足している。
In the conventional method, even if the learning progress is set to 0.7, there are many cases in which the learning does not converge (the learning progress is not satisfied, the learning does not end), and even if it is satisfied, it takes a huge amount of time. End up. In most cases, the first three places in the time series do not satisfy the progress of learning, and all the rest satisfy the progress of learning.

【0093】このような場合の認識率評価は、学習の進
度が0.7か0.6の途中での評価を行うということに
なる。これでは、どこで、学習を終了するのか判断が難
しく、また、最適な認識率が得られるかどうかも不明で
ある。以下、従来法の場合と本発明の方法を実施した場
合の比較する。 従来法 隠れ層の数 100 50 30 学習の進度 0.9 0.9 0.9 学習回数 1 1 1 認識率(%) 0 0 0 学習の進度 0.8 0.8 0.8 学習回数 53 78 76 認識率(%) 40 75 80 学習の進度 0.7(収束せず) 0.7(収束せず) 0.7(収束せず) 学習回数 500 500 500 認識率(%) 80 85 85 学習の進度 0.7(収束せず) 0.7(収束せず) 0.7(収束せず) 学習回数 1000 1000 1000 認識率(%) 90 90 85 学習の進度 0.7(収束せず) 0.7(収束せず) 0.7(収束せず) 学習回数 1500 1500 1500 認識率(%) 85 85 85 学習の進度 0.7(収束せず) 0.7(収束せず) 0.7(収束せず) 学習回数 2000 2000 2000 認識率(%) 85 85 85 学習の進度 0.7(収束せず) 0.7(収束せず) 0.7(収束せず) 学習回数 2500 2500 2500 認識率(%) 85 85 85 学習の進度 0.7(収束せず) 0.7(収束せず) 0.7(収束せず) 学習回数 3000 3000 3000 認識率(%) 85 80 85 ノード数が100、学習の進度が0.7、学習回数10
00の時 ノード数が 50、学習の進度が0.7、学習回数10
00の時 のネットワークの重みを使えば最適な認識率90%が得
られた。
The recognition rate evaluation in such a case means that the evaluation is performed while the learning progress is 0.7 or 0.6. With this, it is difficult to determine where to end the learning, and it is also unknown whether the optimum recognition rate can be obtained. Hereinafter, the case of the conventional method and the case of carrying out the method of the present invention will be compared. Conventional method Number of hidden layers 100 50 30 Learning progress 0.9 0.9 0.9 Learning frequency 1 1 1 Recognition rate (%) 0 0 0 Learning progress 0.8 0.8 0.8 0.8 Number of learning 53 78 76 Recognition rate (%) 40 75 80 Progress of learning 0.7 (Not converged) 0.7 (Not converged) 0.7 (Not converged) Number of learning 500 500 500 500 Recognition rate (%) 80 85 85 85 Learning Progression of 0.7 (not converged) 0.7 (not converged) 0.7 (not converged) Number of learning 1000 1000 1000 1000 Recognition rate (%) 90 90 90 85 Progress of learning 0.7 (not converged) 0.7 (not converged) 0.7 (not converged) Number of learning 1500 1500 1500 Recognition rate (%) 85 85 85 Progress of learning 0.7 (not converged) 0.7 (not converged) 0. 7 (not converged) Number of learning 2000 2000 2000 2000 Recognition rate (%) 85 85 85 85 learning progress 0.7 (not converged) 0.7 (not converged) 0.7 (not converged) learning count 2500 2500 2500 recognition rate (%) 85 85 85 85 learning progress 0 .7 (not converged) 0.7 (not converged) 0.7 (not converged) Number of learning 3000 3000 3000 Recognition rate (%) 85 80 85 Number of nodes is 100, learning progress is 0.7, learning 10 times
When 00, the number of nodes is 50, the learning progress is 0.7, and the number of learning is 10
An optimal recognition rate of 90% was obtained by using the network weight when 00.

【0094】結果としてはこのうちのどれか一つを使う
ことになる。 本発明 隠れ層の数 100 50 30 学習の進度 0.9 0.9 0.9 学習回数 1 1 1 認識率(%) 0 0 0 学習の進度 0.8 0.8 0.8 学習回数 2 2 2 認識率(%) 0 0 0 学習の進度 0.7 0.7 0.7 学習回数 3 3 3 認識率(%) 0 0 0 学習の進度 0.6 0.6 0.6 学習回数 4 4 4 認識率(%) 0 0 0 学習の進度 0.5 0.5 0.5 学習回数 239 288 297 認識率(%) 70 60 60 学習の進度 0.4 0.4 0.4 学習回数 250 289 300 認識率(%) 90 80 80 学習の進度 0.3 0.3 0.3 学習回数 307 416 346 認識率(%) 90 90 85 学習の進度 0.2 0.2 0.2 学習回数 403 841 771 認識率(%) 90 90 95 学習の進度 0.1 0.1 0.1 学習回数 1580 2070 1980 認識率(%) 90 85 90 最適なノード数が30、学習の進度が0.2、学習回数
771の時のネットワークの重みを使えば最適な認識率
95%が得られた。以上によれば、従来法で求めた最適
な隠れ層のノード数と本発明でのものとは異なり、また
認識率も違う。本発明の方法によって得られた結果は従
来法に比べ、高い認識率を得ることができた。
As a result, any one of them will be used. The present invention Number of hidden layers 100 50 30 Progress of learning 0.9 0.9 0.9 Number of learning 1 1 1 Recognition rate (%) 0 0 0 Progress of learning 0.8 0.8 0.8 0.8 Number of learning 2 2 2 Recognition rate (%) 0 0 0 Learning progress 0.7 0.7 0.7 0.7 Number of learning 3 3 3 Recognition rate (%) 0 0 0 Learning progress 0.6 0.6 0.6 Number of learning 4 4 4 Recognition rate (%) 0 0 0 Progress of learning 0.5 0.5 0.5 0.5 Number of learning 239 288 297 Recognition rate (%) 70 60 60 Progress of learning 0.4 0.4 0.4 Number of learning 250 289 300 Recognition rate (%) 90 80 80 Progress of learning 0.3 0.3 0.3 Number of learning 307 416 346 Recognition rate (%) 90 90 90 85 Progress of learning 0.2 0.2 0.2 Number of learning 403 841 771 Recognition rate (%) 90 90 95 Learning progress 0.1 0.1 0.1 Number of learning 1580 2070 1980 Recognition rate (%) 90 85 90 90 Optimal number of nodes, learning progress of 0.2, learning rate of 771 95% was obtained. According to the above, the optimal number of hidden layer nodes obtained by the conventional method is different from that of the present invention, and the recognition rate is also different. The result obtained by the method of the present invention was able to obtain a higher recognition rate as compared with the conventional method.

【0095】また、この結果は、学習の進度が正確に得
られることで、最適な隠れ層のノード数や学習の進度を
正確で、簡単に求められることを示している。従来法で
の最適な認識率を得られるまでにかかった学習回数に比
べ、本発明での学習回数の方が少なく、いい認識率を得
ることができた。つまり、少ない時間で最適な認識率を
得られることになり、実験の高率化につながる。
This result also shows that the learning progress is accurately obtained, so that the optimal number of hidden layer nodes and the learning progress can be accurately and easily obtained. Compared with the number of times of learning required to obtain the optimum recognition rate in the conventional method, the number of times of learning in the present invention was smaller, and a good recognition rate could be obtained. In other words, the optimal recognition rate can be obtained in a short time, which leads to higher experiment rate.

【0096】また、従来法で、学習の進度が0.8位か
ら、一向に進まず、どこで学習を終了させたらいいか困
るという問題も本発明により解決できる。このような現
象のときに求めた、従来法の最適な条件の時の認識率に
は、信頼性がない。もっと学習が進めば、もっと認識率
がよくなるかもしれないし、また、もっと少ない時にや
めておけば、認識率がよかったという不安も残るからで
ある。認識率は正確さにかける。本発明によってこの点
の不安は解消され、認識率の最も高いものを得ることが
できる。
Further, according to the conventional method, the present invention can solve the problem that the progress of the learning does not proceed from 0.8 rank in one direction and it is difficult to know where to finish the learning. The recognition rate under the optimum condition of the conventional method, which is obtained in such a phenomenon, is not reliable. If you learn more, the recognition rate may improve, and if you stop it when you are less, there is still anxiety that the recognition rate was good. The recognition rate depends on the accuracy. According to the present invention, the anxiety of this point is eliminated, and the one with the highest recognition rate can be obtained.

【0097】[0097]

【発明の効果】本発明によれば、学習の進度が正確に得
られ、その結果、最適な認識率を得るまでにかかる学習
回数を少なくできる。つまり、少ない時間で最適な認識
率を得られることになり、実験の高率化につながる。
According to the present invention, the progress of learning can be accurately obtained, and as a result, the number of times of learning required to obtain an optimum recognition rate can be reduced. In other words, the optimal recognition rate can be obtained in a short time, which leads to higher experiment rate.

【0098】また、どこで学習を終了させたらいいか困
るという問題も本発明により解決できる。そして、学習
の進度を進める上で必要でない出力を無視することによ
り、認識率の最も高いものを得ることができる。
The present invention can also solve the problem of where to end learning. Then, by ignoring the output that is not necessary for the progress of learning, the one with the highest recognition rate can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明のニューラルネットワーク学習装置の
原理図
FIG. 1 is a principle diagram of a neural network learning device of the present invention.

【図2】 本発明の実施例を示すブロック図FIG. 2 is a block diagram showing an embodiment of the present invention.

【図3】 ネットワークの入出力特性を示す図FIG. 3 is a diagram showing input / output characteristics of the network.

【図4】 ネットワークの構造を示す図FIG. 4 is a diagram showing the structure of a network.

【図5】 実施例における教示信号と出力結果と学習進
度を示す図
FIG. 5 is a diagram showing a teaching signal, an output result, and a learning progress in the embodiment.

【図6】 学習後に未学習データを入力して認識した例
を示す図
FIG. 6 is a diagram showing an example in which unlearned data is input and recognized after learning.

【図7】 履歴判断部のブロック図FIG. 7 is a block diagram of a history judgment unit

【図8】 本発明の他の例を示した図FIG. 8 is a diagram showing another example of the present invention.

【図9】 Elman型リカレントニューラルネットワ
ークの一例を示す図
FIG. 9 is a diagram showing an example of an Elman type recurrent neural network.

【図10】従来型ニューラルネットワーク学習装置を示
す図
FIG. 10 is a diagram showing a conventional neural network learning device.

【図11】従来例における教示信号と出力結果と学習進
度を示す図
FIG. 11 is a diagram showing a teaching signal, an output result, and a learning progress in a conventional example.

【符号の説明】[Explanation of symbols]

NW ニューラルネットワーク (N) 出力ノード (A) 学習部 1 加算手段 2 最大値選択手段 3 しきい値設定手段 4 評価手段 10 入出力パターン保持部 11 学習実行部 12 学習パラメータ保持部 13 重み更新部 14 結合の重み記憶部 21 出力モニタ部 22 学習対象選別手段 23 評価定数設定部 24 基準値設定部 NW neural network (N) output node (A) learning unit 1 adding unit 2 maximum value selecting unit 3 threshold setting unit 4 evaluation unit 10 input / output pattern holding unit 11 learning execution unit 12 learning parameter holding unit 13 weight updating unit 14 Combination weight storage unit 21 Output monitor unit 22 Learning target selection unit 23 Evaluation constant setting unit 24 Reference value setting unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力に対して時系列データをそれぞれ出
力するとともにそれぞれ特定の判断結果を示す複数の出
力ノード(N)を有するニューラルネットワーク(N
W)と、 前記ニューラルネットワークへの入力とそれに対する望
ましい出力である教師信号を保持する入出力パターン保
持部(10)と、 この入出力パターン保持部(10)の入力パターンをニ
ューラルネットワークに入力し出力値を計算する学習実
行部(11)と、 所定の学習規則と学習パラメータを保持する学習パラメ
ータ保持部(12)と、 前記学習規則及び学習パラメータに基づいて、前記学習
実行部(11)でのネットワークの出力と入出力パター
ン保持部(10)の教師信号とを比較し、ネットワーク
の重みを更新する重み更新部(13)と、を備え、 ネットワークの出力と前記教師信号との誤差により決定
される学習の進度を求め、この学習の進度が一定値以下
となったとき学習が完了したものとするニューラルネッ
トワーク学習装置において、 前記ニューラルネットワークの出力をモニタする、出力
モニタ部(21)を設けるとともに、 この出力モニタ部(21)で、ニューラルネットークの
出力を監視し、前記出力が学習の進度を進める上で必要
でない場合、その出力を無視して学習進度評価の対象か
ら外す学習対象選別手段(22)を設けたことを特徴と
するニューラルネットワーク学習装置。
1. A neural network (N) having a plurality of output nodes (N) each of which outputs time-series data with respect to an input and which shows a specific judgment result.
W), an input / output pattern holding unit (10) for holding an input to the neural network and a teacher signal which is a desired output to the neural network, and an input pattern of the input / output pattern holding unit (10) is input to the neural network. A learning execution unit (11) that calculates an output value, a learning parameter holding unit (12) that holds a predetermined learning rule and a learning parameter, and a learning execution unit (11) based on the learning rule and the learning parameter. And a weight updating unit (13) that compares the output of the network with the teacher signal of the input / output pattern holding unit (10) and updates the weight of the network, and determines the difference between the output of the network and the teacher signal. The neural network that determines the progress of learning that is completed and that the learning is completed when the progress of this learning becomes a certain value or less. In the learning device, an output monitor section (21) for monitoring the output of the neural network is provided, and the output of the neural network is monitored by the output monitor section (21) to improve the learning progress. 2. A neural network learning device, characterized in that a learning target selection means (22) is provided for ignoring the output of the learning progress evaluation target when it is not required.
【請求項2】 前記学習対象選別手段(22)は、学習
進度評価の対象から外すべき出力データの数を予め設定
する評価定数設定部(23)を有し、この評価定数設定
部(23)で設定された評価定数の数だけ出力データを
無視することを特徴とする請求項1記載のニューラルネ
ットワーク学習装置。
2. The learning target selection means (22) has an evaluation constant setting unit (23) for presetting the number of output data to be excluded from the targets of learning progress evaluation, and the evaluation constant setting unit (23). 2. The neural network learning apparatus according to claim 1, wherein the output data is ignored by the number of evaluation constants set in.
【請求項3】 前記ニューラルネットワークは、それぞ
れ複数のノードからなる入力層、隠れ層、出力層を備
え、学習にあたり、隠れ層のノード数を可変として学習
を繰り返して、ノード数と学習の進度と認識率との関係
を求めて、最適な認識率に対応する隠れ層ノード数と学
習の進度の組を求め、以後、その組を使用して認識する
ことを特徴とする請求項1記載のニューラルネットワー
ク学習装置。
3. The neural network is provided with an input layer, a hidden layer, and an output layer each consisting of a plurality of nodes, and in learning, the learning is repeated with the number of nodes in the hidden layer being variable, and the number of nodes and the learning progress are 2. The neural network according to claim 1, wherein a relationship between the recognition rate and the recognition rate is obtained to obtain a set of the number of hidden layer nodes corresponding to the optimum recognition rate and a learning progress rate, and thereafter the set is used for recognition. Network learning device.
JP3271422A 1991-10-18 1991-10-18 New network learning device Withdrawn JPH05108601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3271422A JPH05108601A (en) 1991-10-18 1991-10-18 New network learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3271422A JPH05108601A (en) 1991-10-18 1991-10-18 New network learning device

Publications (1)

Publication Number Publication Date
JPH05108601A true JPH05108601A (en) 1993-04-30

Family

ID=17499817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3271422A Withdrawn JPH05108601A (en) 1991-10-18 1991-10-18 New network learning device

Country Status (1)

Country Link
JP (1) JPH05108601A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515181A (en) * 2007-01-02 2010-05-06 シーメンス アクチエンゲゼルシヤフト Method for open loop control and / or closed loop control of a technical system with computer assistance
WO2020036876A1 (en) * 2018-08-12 2020-02-20 The Trustees Of Columbia University In The City Of New York System, method, and computer-accessible medium for non-invasive temperature estimation
CN111789635A (en) * 2019-04-04 2020-10-20 株式会社日立制作所 Ultrasonic imaging device and image processing device
JP2022003600A (en) * 2020-06-23 2022-01-11 富士フイルム株式会社 Signal processing device, magnetic tape cartridge, magnetic tape reading device, processing method of signal processing device, operating method of magnetic tape reading device, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515181A (en) * 2007-01-02 2010-05-06 シーメンス アクチエンゲゼルシヤフト Method for open loop control and / or closed loop control of a technical system with computer assistance
US8566264B2 (en) 2007-01-02 2013-10-22 Siemens Aktiengesellschaft Method for the computer-assisted control and/or regulation of a technical system
WO2020036876A1 (en) * 2018-08-12 2020-02-20 The Trustees Of Columbia University In The City Of New York System, method, and computer-accessible medium for non-invasive temperature estimation
CN111789635A (en) * 2019-04-04 2020-10-20 株式会社日立制作所 Ultrasonic imaging device and image processing device
CN111789635B (en) * 2019-04-04 2023-06-20 富士胶片医疗健康株式会社 Ultrasonic imaging device and image processing device
JP2022003600A (en) * 2020-06-23 2022-01-11 富士フイルム株式会社 Signal processing device, magnetic tape cartridge, magnetic tape reading device, processing method of signal processing device, operating method of magnetic tape reading device, and program

Similar Documents

Publication Publication Date Title
US5107454A (en) Pattern associative memory system
CN102622515B (en) A kind of weather prediction method
CN108621159A (en) A kind of Dynamic Modeling in Robotics method based on deep learning
CN111401623A (en) Shot peening strengthening surface integrity prediction method based on BP neural network
Carpenter et al. A comparison of polynomial approximations and artificial neural nets as response surfaces
CN109255441A (en) Spacecraft fault diagnosis method based on artificial intelligence
Li Neural network models for intelligent support of mark‐up estimation
CN109190834A (en) Stock price trend prediction method and system neural network based
CN110414718A (en) A distribution network reliability index optimization method based on deep learning
CN116611516B (en) A deep knowledge tracking method and system for trend reasoning
CN106529185B (en) A combined prediction method and system for displacement of ancient buildings
KR0170505B1 (en) Learning method of multi-layer perceptrons with n-bit data precision
Villagomez et al. Hand gesture recognition for deaf-mute using fuzzy-neural network
JPH05108601A (en) New network learning device
CN119989921B (en) Structure reliability evaluation prediction method and system based on long-term monitoring data
CN113688770A (en) Long-term wind pressure missing data completion method and device for high-rise building
Yerramareddy et al. Developing empirical models from observational data using artificial neural networks
JPH05108600A (en) Time series data recognition method
JPH05342189A (en) Learning system for network type information processor
Liner et al. Improving neural network learning through dual variable learning rates
JPH0774980B2 (en) Hand posture recognition method using neurocomputer
JP2000122991A (en) Manufacture of controller, the controller, data generator, method for determining input/output characteristics, method for evaluating correlation
Mei Internet abnormal traffic detection based on woa-bilstm-attention
Lapkova et al. Application of Neural Networks for the Classification of Gender from Kick Force Profile–A Small Scale Study
JPH11175494A (en) neural network

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990107