[go: up one dir, main page]

JP2008299640A - Pattern recognition apparatus, pattern recognition method, and program - Google Patents

Pattern recognition apparatus, pattern recognition method, and program Download PDF

Info

Publication number
JP2008299640A
JP2008299640A JP2007145601A JP2007145601A JP2008299640A JP 2008299640 A JP2008299640 A JP 2008299640A JP 2007145601 A JP2007145601 A JP 2007145601A JP 2007145601 A JP2007145601 A JP 2007145601A JP 2008299640 A JP2008299640 A JP 2008299640A
Authority
JP
Japan
Prior art keywords
node
input
pattern
nodes
template model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007145601A
Other languages
Japanese (ja)
Inventor
Osamu Hasegawa
修 長谷川
Shiyougo Okada
将吾 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2007145601A priority Critical patent/JP2008299640A/en
Publication of JP2008299640A publication Critical patent/JP2008299640A/en
Pending legal-status Critical Current

Links

Abstract

【課題】状態数及び各状態の出力分布を自動的に決定して、時系列データの頑健なモデル化をすることができるパターン認識装置、パターン認識方法、及びプログラムを提供すること。
【解決手段】本発明に係るパターン認識装置1は、入力パターンの一部又は全部を入力ベクトルとしてニューラルネットワークに順次入力し、当該入力ベクトル、及び当該ニューラルネットワークに配置される多次元ベクトルで記述されるノードに基づいて、当該ノードを自動的に増加させる自己増殖型ニューラルネットワーク12を用いて、入力パターンの特徴量に応じたテンプレートモデルを生成するテンプレートモデル生成部10と、生成されたテンプレートモデルと入力パターンをマッチングして当該入力パターンを認識する認識部20とを有するものである。
【選択図】図1
To provide a pattern recognition device, a pattern recognition method, and a program capable of automatically determining the number of states and the output distribution of each state to perform robust modeling of time series data.
A pattern recognition apparatus according to the present invention sequentially inputs a part or all of an input pattern as an input vector into a neural network, and is described by the input vector and a multidimensional vector arranged in the neural network. A template model generation unit 10 that generates a template model according to the feature quantity of the input pattern using the self-propagating neural network 12 that automatically increases the number of nodes based on the node, and the generated template model And a recognition unit 20 that recognizes the input pattern by matching the input pattern.
[Selection] Figure 1

Description

本発明は、自己増殖型ニューラルネットワークを用いてパターン認識を行うパターン認識装置、パターン認識方法、及びプログラムに関する。   The present invention relates to a pattern recognition apparatus, a pattern recognition method, and a program for performing pattern recognition using a self-propagating neural network.

時系列パターンの認識・モデル化は動画像処理、音声情報処理、DNA解析などの様々な分野における重要な基盤技術である。一般的に時系列パターンは、特徴空間内での変動及び時間方向の伸縮を含む。時系列パターンを頑健に認識するためには、これらの特徴を吸収可能なモデル及び学習器を構築する必要がある。このため、予めグラフ構造を保持したモデルを持つことで時系列パターンの学習・認識を行う、モデルに基づく手法が頻繁に用いられている。   Time series pattern recognition and modeling are important fundamental technologies in various fields such as moving image processing, speech information processing, and DNA analysis. In general, the time-series pattern includes fluctuation in the feature space and expansion and contraction in the time direction. In order to recognize a time-series pattern robustly, it is necessary to construct a model and a learning device that can absorb these features. For this reason, model-based techniques are often used in which learning and recognition of time-series patterns is performed by having a model that holds a graph structure in advance.

モデルに基づく手法としてHMM(Hidden Markov Model)は、音声認識の分野における標準的な手法として大きな成功を収めている(非特許文献1参照)。HMMは音声認識以外にも、話者適応技術や音声合成技術などに用いられており、音声情報処理全般における標準的手法となっている。この音声情報処理における成功事例や、統計的理論の裏づけがあることから、HMMは動画像および動作の認識にも多く用いられてきた。音声認識や動画像認識における手法としては、離散HMM(Discrete HMM)を用いるものや、連続分布HMM(Continuous HMM)を用いるものがある(非特許文献2及び3参照)。また各状態における持続時間を正確にモデル化するために、各状態の持続長分布を明示的に持たせたSegment modelも提案されている。   As a model-based technique, HMM (Hidden Markov Model) has been very successful as a standard technique in the field of speech recognition (see Non-Patent Document 1). In addition to speech recognition, HMM is used for speaker adaptation technology, speech synthesis technology, and the like, and has become a standard method in general speech information processing. HMM has been widely used for recognition of moving images and motions due to the success of this voice information processing and the support of statistical theory. As a method in speech recognition and moving image recognition, there are a method using a discrete HMM (Discrete HMM) and a method using a continuous distribution HMM (Continuous HMM) (see Non-Patent Documents 2 and 3). In addition, in order to accurately model the duration in each state, a segment model that explicitly has a duration distribution of each state has been proposed.

HMMなどに対し、動的計画法の一種であるDPマッチング法は、短時間の特徴パラメータ(各フレーム)同士の局所距離に基づいて、過度的な時系列パターン間の距離を算出することが可能である。DPマッチングは音声認識、動作認識の他、時系列パターンの検索などに用いられている。   The DP matching method, which is a kind of dynamic programming for HMMs, can calculate the distance between excessive time series patterns based on the local distance between feature parameters (each frame) in a short time. It is. DP matching is used for searching for time-series patterns in addition to voice recognition and motion recognition.

DPマッチング及びHMMに基づいた手法として、非特許文献4に開示された手法(以下、ストキャスティックDP法という。)が提案されている。ストキャスティックDP法では、DPマッチングにおける局所距離の尺度については確率の尺度を用いており、パスコストの代わりにパス遷移確率を用いている。また、ストキャスティックDP法はテンプレートパターンの1フレームを1状態に対応させており、状態数を多くしたHMMの連続出力分布を持つleft−to−rightモデルに相当する。
L. R. Rabiner, "A tutorial on hidden markov models and selected applications in speech recognition", Proc. IEEE, pp. 257-286(1989). A. Wilson and A. Bobick, "Learning visual behavior for gesture analysis", Proc. IEEE International Symposium on Computer Vision, Vol. 5A Motion II(1995). R. Hamdan, F. Heits and L. Thoraval, "Gesture localization and recognition using probabilistic visual learning", Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Vol. 98-103(1999). 中川聖一,"ストキャスティックDP法および統計的手法による不特定話者の英語子音の認識",信学論(D),vol.J70-D, no.1(1987).
As a technique based on DP matching and HMM, a technique disclosed in Non-Patent Document 4 (hereinafter referred to as a stochastic DP method) has been proposed. In the stochastic DP method, a measure of probability is used as a measure of local distance in DP matching, and a path transition probability is used instead of a path cost. The stochastic DP method corresponds to one frame of a template pattern corresponding to one state, and corresponds to a left-to-right model having an HMM continuous output distribution with an increased number of states.
LR Rabiner, "A tutorial on hidden markov models and selected applications in speech recognition", Proc. IEEE, pp. 257-286 (1989). A. Wilson and A. Bobick, "Learning visual behavior for gesture analysis", Proc. IEEE International Symposium on Computer Vision, Vol. 5A Motion II (1995). R. Hamdan, F. Heits and L. Thoraval, "Gesture localization and recognition using probabilistic visual learning", Proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Vol. 98-103 (1999). Seiichi Nakagawa, "Recognition of English consonants of unspecified speakers by stochastic DP method and statistical method", IEICE theory (D), vol.J70-D, no.1 (1987).

HMMでは、パラメタ推定の容易性の理由で、音声データについて一音韻に対して3〜5状態のマルコフモデルが多く用いられる。しかしながら、このような少数の状態では、過度的な時系列パターンを正確にモデル化できない可能性がある。
また、DPマッチング法では標準パターンそのものをモデルとするため、HMMに比べて特徴空間の分布を詳細にモデル化することが困難である。
一方、ストキャスティックDP法は、DPマッチングの利点及びHMMの頑健性の両方を活かした手法であるものの、各状態の出力分布には単一の多次元正規分布が用いられている。一般に、各状態の出力分布は特徴量の次元数及び特性に応じて異なるため、このような単一の多次元正規分布を用いた場合には、出力分布を正確に近似することができないという問題がある。
In the HMM, a Markov model having 3 to 5 states is often used for one phoneme for speech data because of the ease of parameter estimation. However, in such a small number of situations, an excessive time series pattern may not be accurately modeled.
Further, since the DP matching method uses the standard pattern itself as a model, it is difficult to model the feature space distribution in detail compared to the HMM.
On the other hand, the stochastic DP method is a method that utilizes both the advantage of DP matching and the robustness of the HMM, but a single multidimensional normal distribution is used for the output distribution of each state. In general, since the output distribution of each state differs depending on the number of dimensions and characteristics of the feature quantity, the problem is that the output distribution cannot be accurately approximated when such a single multidimensional normal distribution is used. There is.

このように、従来のパターン認識モデルでは、予め適切な状態数及び各状態の出力分布を決定する必要があり、また、各状態の出力分布を単一の多次元正規分布を用いては、出力分布を十分に近似することができないという問題がある。   Thus, in the conventional pattern recognition model, it is necessary to determine the appropriate number of states and the output distribution of each state in advance, and the output distribution of each state is output using a single multidimensional normal distribution. There is a problem that the distribution cannot be approximated sufficiently.

本発明は係る課題を解決するためになされたものであり、状態数及び各状態の出力分布を自動的に決定し、時系列データの頑健なモデル化をすることができるパターン認識装置、パターン認識方法、及びプログラムを提供することを目的とする。   The present invention has been made in order to solve such problems, and is a pattern recognition apparatus and pattern recognition capable of automatically determining the number of states and the output distribution of each state and robustly modeling time-series data. It is an object to provide a method and a program.

本発明に係るパターン認識装置は、入力パターンの一部又は全部を入力ベクトルとしてニューラルネットワークに順次入力し、当該入力ベクトル、及び当該ニューラルネットワークに配置される多次元ベクトルで記述されるノードに基づいて、当該ノードを自動的に増加させる自己増殖型ニューラルネットワークを用いて、前記入力パターンの特徴量に応じたテンプレートモデルを生成するテンプレートモデル生成部と、生成された前記テンプレートモデルと前記入力パターンをマッチングして当該入力パターンを認識する認識部を有するものである。   The pattern recognition apparatus according to the present invention sequentially inputs a part or all of an input pattern as an input vector to a neural network, and based on the input vector and a node described by a multidimensional vector arranged in the neural network. A template model generation unit that generates a template model according to the feature amount of the input pattern using a self-propagating neural network that automatically increases the node, and matches the generated template model with the input pattern And a recognition unit for recognizing the input pattern.

これにより、テンプレートモデルにおける状態数及び各状態の出力分布を自動的に決定することができると共に、各状態の出力分布を詳細に近似することができるため、時系列データの頑健なモデル化を実現することができる。   As a result, the number of states in the template model and the output distribution of each state can be determined automatically, and the output distribution of each state can be approximated in detail, enabling robust modeling of time-series data. can do.

また、前記認識部は、前記ノードに基づいて、前記テンプレートモデルにおける状態の出力分布を算出する尤度算出部を有し、算出された前記テンプレートモデルにおける状態の出力分布を用いて、前記テンプレートモデルと前記入力パターンとの一致度を算出するようにしてもよい。これにより、テンプレートモデルにおける各状態の出力分布を詳細に近似することができるため、時系列データをより精度良く認識することができる。   The recognizing unit includes a likelihood calculating unit that calculates an output distribution of the state in the template model based on the node, and uses the calculated output distribution of the state in the template model. And the degree of coincidence with the input pattern may be calculated. Thereby, since the output distribution of each state in the template model can be approximated in detail, the time series data can be recognized with higher accuracy.

さらにまた、前記尤度算出部は、前記自己増殖型ニューラルネットワークに配置される全てのノードに基づいて、大域的尤度を算出する大域的尤度算出部を有し、前記大域的尤度から前記テンプレートモデルにおける状態の出力分布を算出するようにしてもよい。これにより、入力パターンの特徴量を大域的尤度によって反映させることにより、テンプレートモデルにおける各状態の出力分布を詳細に近似することができるため、時系列データをより精度良く認識することができる。   Furthermore, the likelihood calculating unit includes a global likelihood calculating unit that calculates a global likelihood based on all nodes arranged in the self-propagating neural network, and the global likelihood is calculated from the global likelihood. An output distribution of states in the template model may be calculated. Thereby, by reflecting the feature quantity of the input pattern by the global likelihood, the output distribution of each state in the template model can be approximated in detail, and thus the time-series data can be recognized with higher accuracy.

また、前記尤度算出部は、辺によって接続されたノードからなるクラスタについて、当該クラスタに属するノードに基づいて、局所的尤度を算出する局所的尤度算出部を有し、前記局所的尤度から前記テンプレートモデルにおける状態の出力分布を算出するようにしてもよい。これにより、入力パターンの特徴量を局所域的尤度によって反映させることにより、各状態の出力分布が単一の多次元正規分布では近似できない場合であっても、テンプレートモデルにおける各状態の出力分布を詳細に近似することができるため、時系列データをより精度良く認識することができる。   In addition, the likelihood calculating unit includes a local likelihood calculating unit that calculates a local likelihood based on a node belonging to the cluster for a cluster including nodes connected by edges, and the local likelihood The output distribution of the state in the template model may be calculated from the degree. Thus, by reflecting the feature quantity of the input pattern with local likelihood, the output distribution of each state in the template model even if the output distribution of each state cannot be approximated by a single multidimensional normal distribution Therefore, time series data can be recognized with higher accuracy.

さらにまた、前記尤度算出部は、前記自己増殖型ニューラルネットワークに配置される全てのノードに基づいて、大域的尤度を算出する大域的尤度算出部と、辺によって接続されたノードからなるクラスタについて、当該クラスタに属するノードに基づいて、局所的尤度を算出する局所的尤度算出部とを有し、前記大域的尤度及び/又は前記局所的尤度から前記テンプレートモデルにおける状態の出力分布を算出するようにしてもよい。これにより、入力パターンの特徴量を大域的尤度及び局所域的尤度を用いて反映させることにより、各状態の出力分布が単一の多次元正規分布では近似できない場合であっても、テンプレートモデルにおける各状態の出力分布をより詳細に近似することができるため、時系列データをより精度良く認識することができる。   Furthermore, the likelihood calculation unit includes a global likelihood calculation unit that calculates a global likelihood based on all nodes arranged in the self-propagating neural network, and nodes connected by edges. A local likelihood calculating unit that calculates a local likelihood based on a node belonging to the cluster, and the state of the template model is determined from the global likelihood and / or the local likelihood. The output distribution may be calculated. As a result, even if the output distribution of each state cannot be approximated by a single multidimensional normal distribution by reflecting the feature quantity of the input pattern using the global likelihood and the local likelihood, the template Since the output distribution of each state in the model can be approximated in more detail, time-series data can be recognized with higher accuracy.

また、前記テンプレートモデル生成部は、前記入力パターン間のマッチングにより、当該入力パターンが属するクラスの標準パターンを選択する標準パターン選択部を有し、前記入力パターンの大きさを前記標準パターンの大きさに正規化して、前記標準パターンの各フレームに対応する各前記入力パターンの一部又は全部を、前記テンプレートモデルにおける各状態に対応させるようにしてもよい。これにより、事前にテンプレートモデルにおける状態数を決定せずに、標準パターンのフレーム数に応じてテンプレートモデルにおける状態数を決定することができる。   In addition, the template model generation unit includes a standard pattern selection unit that selects a standard pattern of a class to which the input pattern belongs by matching between the input patterns, and sets the size of the input pattern to the size of the standard pattern. In other words, a part or all of each input pattern corresponding to each frame of the standard pattern may correspond to each state in the template model. Accordingly, the number of states in the template model can be determined according to the number of frames of the standard pattern without previously determining the number of states in the template model.

さらにまた、前記テンプレートモデル生成部は、前記テンプレートモデルにおける各状態に対応させた各前記入力パターンの一部又は全部からなる要素の集合について、前記入力パターンの入力パターン数及び当該入力パターンの特徴量の次元数に基づいて、当該要素集合を前記自己増殖型ニューラルネットワークに入力するようにしてもよい。これにより、1つの状態に対応する要素集合の要素数が少ない場合であっても、入力パターン数及び入力パターンの次元数に応じて要素数を決定することにより、分布を近似するのに必要な多さの要素数を確保して入力することができ、認識精度の低下を防止することができる。   Furthermore, the template model generation unit is configured to determine the number of input patterns of the input pattern and the feature amount of the input pattern with respect to a set of elements including part or all of the input patterns corresponding to the states in the template model. The element set may be input to the self-propagating neural network based on the number of dimensions. As a result, even if the number of elements in the element set corresponding to one state is small, it is necessary to approximate the distribution by determining the number of elements according to the number of input patterns and the number of dimensions of the input patterns. A large number of elements can be secured and input, and a reduction in recognition accuracy can be prevented.

また、前記テンプレートモデル生成部は、逐次的に入力パターンを追加して入力するときに、当該逐次的に追加される入力パターンの属するクラスに対応する前記テンプレートモデルについて、当該テンプレートモデルにおける状態の出力分布を前記逐次的に追加される入力パターンに応じて更新するようにしてもよい。これにより、追加的に入力される入力パターンを容易に追加学習することができるとともに、事前に多量のデータを必要とせず、逐次的に与えられる少量のデータに基づいて認識精度を向上させてゆくことができる。   In addition, when the template model generation unit sequentially adds and inputs input patterns, the template model generation unit outputs the state of the template model corresponding to the class to which the sequentially added input pattern belongs. The distribution may be updated according to the sequentially added input pattern. As a result, additional input patterns can be easily learned, and a large amount of data is not required in advance, and recognition accuracy is improved based on a small amount of data given sequentially. be able to.

さらにまた、DPマッチング法を用いて前記マッチング処理を行うようにしてもよい。これにより、効率的にマッチング処理を行うことができる。   Furthermore, the matching process may be performed using a DP matching method. Thereby, a matching process can be performed efficiently.

また、前記自己増殖型ニューラルネットワークは、入力される前記入力ベクトルに最も近い重みベクトルを持つノードと2番目に近い重みベクトルを持つノードの間に辺を接続したとき、注目するノードと他のノード間の距離に基づいて算出される当該注目するノードの類似度閾値、及び前記入力ベクトルと当該注目するノード間の距離に基づいて、前記入力ベクトルをノードとして挿入するクラス間ノード挿入部と、前記入力ベクトルに最も近いノードに対応する重みベクトル及び当該ノードと辺によって直接的に接続されるノードに対応する重みベクトルをそれぞれ前記入力ベクトルに更に近づけるように更新する重みベクトル更新部とを有するようにしてもよい。これにより、類似度閾値に基づいて、挿入されるノードの個数を自律的に管理することができるため、ノードの数を事前に決定することなく、逐次的に入力される新たな入力パターンを既存の知識を壊すことなく追加学習することができる。   The self-propagating neural network is configured such that when an edge is connected between a node having a weight vector closest to the input vector and a node having a second closest weight vector, the node of interest and other nodes A similarity threshold of the node of interest calculated based on the distance between, and an interclass node insertion unit that inserts the input vector as a node based on the distance between the input vector and the node of interest; and A weight vector updating unit that updates a weight vector corresponding to a node closest to the input vector and a weight vector corresponding to a node directly connected to the node by an edge so as to be closer to the input vector. May be. As a result, since the number of nodes to be inserted can be autonomously managed based on the similarity threshold, a new input pattern that is sequentially input can be created without determining the number of nodes in advance. You can learn more without breaking your knowledge.

さらにまた、前記クラス間ノード挿入部は、入力される前記入力ベクトルに最も近い重みベクトルを持つノードを第1勝者ノードとし、2番目に近い重みベクトルを持つノードを第2勝者ノードとし、当該第1勝者ノード及び当該第2勝者ノードの間に辺を接続したとき、注目するノードについて、当該注目するノードと辺によって直接的に接続されるノードが存在する場合には、当該直接的に接続されるノードのうち当該注目するノードからの距離が最大であるノード間の距離を前記類似度閾値とし、当該注目するノードと辺によって直接的に接続されるノードが存在しない場合には、当該注目するノードからの距離が最小であるノード間の距離を前記類似度閾値として算出する類似度閾値算出部と、前記入力ベクトルと前記第1勝者ノード間の距離が当該第1勝者ノードの類似度閾値より大きいか否か、及び、前記入力ベクトルと前記第2勝者ノード間の距離が当該第2勝者ノードの類似度閾値より大きいか否かを判定する類似度閾値判定部と、類似度閾値判定結果に基づいて、前記入力ベクトルをノードとして当該入力ベクトルと同じ位置に挿入するノード挿入部とを有するようにしてもよい。これにより、入力ベクトルに応じて変化する類似度閾値によれば、挿入されるノードの個数を自律的に管理することができるため、ノードの数を事前に決定することなく、逐次的に入力される新たな入力パターンを既存の知識を壊すことなく追加学習することができる。   Furthermore, the inter-class node insertion unit sets a node having a weight vector closest to the input vector to be input as a first winner node and a node having a weight vector closest to the second as a second winner node. When an edge is connected between the 1 winner node and the 2nd winner node, if there is a node that is directly connected to the node of interest by the edge, the node is directly connected. The distance between the nodes having the maximum distance from the node of interest is the similarity threshold, and if there is no node directly connected to the node of interest by the side, the attention is paid A similarity threshold calculation unit that calculates a distance between nodes having a minimum distance from the node as the similarity threshold; the input vector; and the first winner no Whether the distance between the input vector and the second winner node is greater than the similarity threshold of the first winner node, and whether the distance between the input vector and the second winner node is greater than the similarity threshold of the second winner node And a node insertion unit that inserts the input vector as a node at the same position as the input vector based on the similarity threshold determination result. Thus, according to the similarity threshold that changes according to the input vector, the number of nodes to be inserted can be autonomously managed, so that the number of nodes is sequentially input without determining in advance. Additional input patterns can be learned without breaking existing knowledge.

また、前記自己増殖型ニューラルネットワークは、前記辺に対応付けられる辺の年齢に基づいて、当該辺を削除する辺削除部と、注目するノードについて、当該注目するノードに直接的に接続される辺の本数に基づいて、当該注目するノードを削除するノード削除部とを更に有するようにしてもよい。これにより、不要な入力パターンから生成されたノードを効果的かつ動的に削除することができる。   Further, the self-propagating neural network includes an edge deleting unit that deletes the edge based on the age of the edge associated with the edge, and an edge that is directly connected to the noticed node. And a node deletion unit that deletes the node of interest based on the number of nodes. Thereby, a node generated from an unnecessary input pattern can be effectively and dynamically deleted.

さらにまた、前記自己増殖型ニューラルネットワークは1層構造であるようにしてもよい。これにより、非特許文献:F. Shen and O. Hasegawa, "An Incremental Network for On-line Unsupervised Classification and Topology Learning, " Neural Networks, vol. 19, pp. 90-106, 2006.に開示された技術であるSelf-Organizing Incremental Neural Network(以下、SOINNという。)と比べて、2層目の学習を開始するタイミングを指定せずに追加学習を実行することができる。   Furthermore, the self-propagating neural network may have a single layer structure. As a result, non-patent literature: F. Shen and O. Hasegawa, "An Incremental Network for On-line Unsupervised Classification and Topology Learning," Neural Networks, vol. 19, pp. 90-106, 2006. Compared to Self-Organizing Incremental Neural Network (hereinafter referred to as “SOINN”), additional learning can be executed without specifying the timing for starting the second layer learning.

本発明に係るパターン認識方法は、入力パターンの一部又は全部を入力ベクトルとしてニューラルネットワークに順次入力し、当該入力ベクトル、及び当該ニューラルネットワークに配置される多次元ベクトルで記述されるノードに基づいて、当該ノードを自動的に増加させる自己増殖型ニューラルネットワークを用いて、前記入力パターンの特徴量に応じたテンプレートモデルを生成するテンプレートモデル生成ステップと、生成された前記テンプレートモデルと前記入力パターンをマッチングして当該入力パターンを認識する認識ステップを有するものである。   The pattern recognition method according to the present invention sequentially inputs a part or all of an input pattern as an input vector to a neural network, and based on the input vector and a node described by a multidimensional vector arranged in the neural network. A template model generating step for generating a template model according to the feature quantity of the input pattern using a self-propagating neural network that automatically increases the node, and matching the generated template model with the input pattern And a recognition step for recognizing the input pattern.

本発明に係るプログラムは、上述のような情報処理をコンピュータに実行させるものである。   The program according to the present invention causes a computer to execute information processing as described above.

本発明によれば、状態数及び各状態の出力分布を自動的に決定して、時系列データの頑健なモデル化をすることができるパターン認識装置、パターン認識方法、及びプログラムを提供することができる。   According to the present invention, it is possible to provide a pattern recognition device, a pattern recognition method, and a program that can automatically determine the number of states and the output distribution of each state and perform robust modeling of time-series data. it can.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。尚、各図面において、同一要素には同一の符号を付しており、説明の明確化のため、必要に応じて重複説明を省略する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In addition, in each drawing, the same code | symbol is attached | subjected to the same element, and duplication description is abbreviate | omitted as needed for clarification of description.

発明の実施の形態1.
本実施の形態1は、本発明を、時系列パターンを認識するパターン認識装置に適用したものである。パターン認識装置は、オンライン教師なし学習手法である自己増殖型ニューラルネットワークを用いて、時系列パターンの特徴量に応じたテンプレートモデルを生成し、生成されたテンプレートモデルと時系列パターンをマッチングしてその時系列パターンを認識する。
自己増殖型ニューラルネットワークとして後述するSOINNを利用することによって、テンプレートモデルにおける各状態の出力分布を自動的に決定した上で、詳細に近似することができる。ここで、パターン認識装置は、時系列パターンの一部又は全部をSOINNへと入力し、SOINNにおいて形成される位相構造(ノード及び辺の集合)に基づいて尤度を算出して、状態の出力分布を近似する。尤度として大域的尤度及び局所的尤度を算出することによって、時系列パターンの特徴量に応じた状態の出力分布を詳細に表現できるため、時系列パターンの頑健なモデル化が可能となる。
Embodiment 1 of the Invention
In the first embodiment, the present invention is applied to a pattern recognition apparatus that recognizes time-series patterns. The pattern recognition device uses a self-propagating neural network, which is an online unsupervised learning method, to generate a template model according to the feature quantity of the time series pattern, and then matches the generated template model with the time series pattern. Recognize sequence patterns.
By using SOIN, which will be described later, as the self-propagating neural network, the output distribution of each state in the template model can be automatically determined and approximated in detail. Here, the pattern recognition apparatus inputs a part or all of the time-series pattern to the SOINN, calculates the likelihood based on the phase structure (a set of nodes and sides) formed in the SOINN, and outputs the state Approximate the distribution. By calculating the global likelihood and the local likelihood as the likelihood, it is possible to express the output distribution of the state according to the feature quantity of the time series pattern in detail, so that the time series pattern can be robustly modeled .

図1は、本発明の実施の形態1に係るパターン認識装置1を示すブロック図である。パターン認識装置1は、テンプレートモデル生成部10及び認識部20を備え、学習用の訓練パターンが格納された訓練用パターンデータベース(DB)31及び学習の結果生成されたテンプレートモデルが格納されたテンプレートモデル学習結果データベース(DB)32と接続されている。   FIG. 1 is a block diagram showing a pattern recognition apparatus 1 according to Embodiment 1 of the present invention. The pattern recognition apparatus 1 includes a template model generation unit 10 and a recognition unit 20, and includes a training pattern database (DB) 31 that stores training patterns for learning and a template model that stores template models generated as a result of learning. A learning result database (DB) 32 is connected.

テンプレートモデル生成部10は、標準パターン選択部11及びSOINN12を備える。自己増殖型ニューラルネットワークとしてのSOINN12は、クラス間ノード挿入部121と、辺削除部122と、ノード削除部123と、重みベクトル更新部124とを備える。認識部20は、尤度算出部21を備える。尤度算出部21は、大域的尤度算出部211及び局所的尤度算出部212を備える。   The template model generation unit 10 includes a standard pattern selection unit 11 and a SOINN 12. The SOIN 12 as a self-propagating neural network includes an interclass node insertion unit 121, an edge deletion unit 122, a node deletion unit 123, and a weight vector update unit 124. The recognition unit 20 includes a likelihood calculation unit 21. The likelihood calculating unit 21 includes a global likelihood calculating unit 211 and a local likelihood calculating unit 212.

次に、各ブロックについて以下詳細に説明する。
テンプレートモデル生成部10は、後述するSOINN12を用いて、入力パターンの特徴量に応じた各クラスのモデル(以下、テンプレートモデルという。)を生成する。より具体的には、まず、後述する標準パターン選択部11により訓練データの中から中心となる標準パターンを選択し、この標準パターン及び他の訓練パターンとの間でDPマッチングを行うことによって、各訓練パターンを標準パターンの時系列長に正規化する。次に、標準パターンの各フレームに対応する入力パターンの一部又は全部からなるデータの集合をテンプレートモデルにおける1つの状態に対応させ、このデータ集合の分布をSOINN12によって近似する。この結果、テンプレートモデルは、標準パターンのフレーム数分だけ状態数を保持し、各状態の出力分布をSOINN12により近似することができる。以下、この手法をSOINN−DP法という。
Next, each block will be described in detail below.
The template model generation unit 10 generates a model of each class (hereinafter referred to as a template model) according to the feature amount of the input pattern using the SOIN 12 described later. More specifically, first, the standard pattern selection unit 11 to be described later selects a central standard pattern from the training data, and performs DP matching between this standard pattern and other training patterns. Normalize the training pattern to the time series length of the standard pattern. Next, a set of data consisting of a part or all of the input pattern corresponding to each frame of the standard pattern is made to correspond to one state in the template model, and the distribution of this set of data is approximated by SOIN 12. As a result, the template model holds the number of states as many as the number of frames of the standard pattern, and the output distribution of each state can be approximated by the SOINN 12. Hereinafter, this method is referred to as the SOIN-DP method.

標準パターン選択部11は、入力パターン間のマッチングにより、その入力パターンが属するクラスの標準パターンを選択する。ここで、マッチング処理にはDPマッチング法を使用する。DPマッチング法を使用することによって効率的にマッチング処理を行うことができる。DPマッチングを行うことによって、2つのパターンX及びY間の累積距離D(X,Y)、及びパターン間の最適な対応付けj=w(i=1,2,・・・,I)を得ることができる。 The standard pattern selection unit 11 selects a standard pattern of a class to which the input pattern belongs by matching between the input patterns. Here, the DP matching method is used for the matching process. By using the DP matching method, the matching process can be performed efficiently. By performing the DP matching, the accumulated distance D between the two patterns X and Y (X, Y), and optimal correspondence j = w i between patterns (i = 1,2, ···, I ) the Obtainable.

以下、DPマッチング法について簡単に説明する。
本実施の形態1においては、フレーム数Iの時系列パターンX={x,x,・・・,x,・・・,x}、及びフレーム数Jの時系列パターンY={y,y,・・・,y,・・・,yJ}とのDPマッチングを考え、この2つの時系列パターンの累積距離D(X,Y)を算出する。ここで、i及びjはそれぞれ時系列パターンX及びYのフレーム番号を示す。また、Xの各フレームの特徴ベクトルxを、Xのiフレーム目の要素、もしくはi番目の要素という。本実施の形態1においては、時系列パターンX及び時系列パターンYの累積距離D(X,Y)を、以下に示す対称型漸化式を用いて算出する。
そして、上記数2に示した漸化式を用いて、以下の式に基づいて累積距離D(X,Y)を算出する。
Hereinafter, the DP matching method will be briefly described.
In the first embodiment, the time series pattern X = the number of frames I {x 1, x 2, ···, x i, ···, x I}, and when the frame number J-series pattern Y = { Considering DP matching with y 1 , y 2 ,..., y j ,..., y J }, the cumulative distance D (X, Y) of these two time series patterns is calculated. Here, i and j indicate the frame numbers of the time series patterns X and Y, respectively. In addition, the feature vector x i of each frame of X is referred to as an element of the i-th frame of X or an i-th element. In the first embodiment, the cumulative distance D (X, Y) between the time series pattern X and the time series pattern Y is calculated using the following symmetric recurrence formula.
Then, the cumulative distance D (X, Y) is calculated based on the following formula using the recurrence formula shown in Equation 2 above.

このように、DPマッチングによれば、累積距離に現時点の局所距離を累積する演算を漸化的に繰り返すことによって累積距離D(X,Y)を算出することができる。また、DPマッチングによって、Xの第i番目(フレーム目)の要素x及びYの第j番目の要素yとの最適な対応付けj=w(i=1,2,・・・,I)を得ることができる。
尚、DPマッチングに用いられる漸化式としては、上記の対称型漸化式以外にも、以下の式に示す非対称型漸化式がある。
Thus, according to DP matching, the cumulative distance D (X, Y) can be calculated by incrementally repeating the operation of accumulating the current local distance in the cumulative distance. Further, the DP matching, the i-th X element x i and Y in (frame) the j-th element y j and the optimum correspondence j = w i (i = 1, 2, · · ·, I) can be obtained.
As a recurrence formula used for DP matching, in addition to the symmetric recurrence formula, there is an asymmetric recurrence formula shown below.

SOINN12は、入力ベクトル及びニューラルネットワークに配置されるノードに基づいて、ノードを自動的に増加させる自己増殖型ニューラルネットワークであり、本実施の形態1においては、下記に説明するSOINNの1層目を用いて学習を行う。1層構造とすることにより、SOINNと比べて、2層目の学習を開始するタイミングを指定せずに追加学習を実行することができる。また、SOINNに限定されず、後述するEnhanced−SOINN(以下、E−SOINNという。)などとしても1層構造とすることができ、2層目の学習を開始するタイミングを指定せずに追加学習を実行することができる。   The SOINN 12 is a self-propagating neural network that automatically increases the number of nodes based on the input vector and the nodes arranged in the neural network. In the first embodiment, the first layer of the SOINN described below is used. Use to learn. By adopting a one-layer structure, it is possible to execute additional learning without specifying the timing for starting learning of the second layer, as compared to SOIN. Also, the present invention is not limited to SOIN, and can be a single-layer structure such as Enhanced-SOINN (hereinafter referred to as E-SOINN), which will be described later. Can be executed.

以下、まず、従来技術であるSOINNについて簡単に説明し、次いで本実施の形態1にかかるSOINN12について説明する。SOINNは、非特許文献:Fritzke.B, "A growing neural gas network learns topologies, " Advances in neural information processing systems(NIPS), pp 625-632, 1995.に開示された技術であるGrowing Neural Gas(以下、GNGという。)を拡張した、いわゆる自己増殖型ニューラルネットワークと呼ばれる教師なし追加学習手法である。ノードを自己増殖しながら入力ベクトルを逐次的に学習することにより、入力データの分布を表現するネットワークを追加的に構築することができる。SOINNは、次の4つの利点を有する。
(1)過去に学習したクラスタを壊さずに、新規に入力される未知クラスの入力ベクトルを追加的に学習して、新規のクラスタを構築することができる。
(2)入力データに対して独立なノイズを、効果的かつ動的に除去することができる。
(3)逐次的に与えられる教師無しデータについて、その位相構造を表現するネットワークを自律的に構築することができる。
(4)ノード数を事前に決定せずに、入力ベクトルを近似することができる。
In the following, first, SOIN, which is a conventional technique, will be briefly described, and then SOIN 12 according to the first embodiment will be described. SOINN is a technique disclosed in Non-Patent Literature: Fritzke.B, “A growing neural gas network learns topologies,” Advances in neural information processing systems (NIPS), pp 625-632, 1995. This is an unsupervised additional learning technique called a so-called self-propagating neural network, which is an extension of GNG). A network that expresses the distribution of input data can be additionally constructed by learning input vectors sequentially while self-propagating nodes. SOIN has the following four advantages.
(1) A new cluster can be constructed by additionally learning an input vector of a newly input unknown class without destroying a previously learned cluster.
(2) Noise independent of input data can be effectively and dynamically removed.
(3) For unsupervised data given sequentially, a network that expresses the phase structure can be autonomously constructed.
(4) The input vector can be approximated without determining the number of nodes in advance.

図2は、従来技術であるSOINNによる学習処理を説明するためのフローチャートである。以下、図2を用いてSOINNの処理を簡単に説明する。ここで、SOINNは2層ネットワーク構造を有し、1層目及び2層目において同様の学習処理を実施する。また、SOINNは1層目の出力である学習結果を2層目への入力ベクトルとして利用する。   FIG. 2 is a flowchart for explaining a learning process by SOIN which is a conventional technique. Hereinafter, the SOIN process will be briefly described with reference to FIG. Here, SOINN has a two-layer network structure and performs the same learning process in the first layer and the second layer. In addition, the SOIN uses the learning result that is the output of the first layer as an input vector to the second layer.

S101:SOINNに対して入力ベクトルを与える。
S102:与えられた入力ベクトルに最も近いノード(以下、第1勝者ノードという。)、及び2番目に近いノード(以下、第2勝者ノードという。)を探索する。
S103:第1勝者ノード及び第2勝者ノードの類似度閾値に基づいて、入力ベクトルがこれら勝者ノードの少なくともいずれか一方と同一のクラスタに属すか否かを判定する。ここで、ノードの類似度閾値はボロノイ領域の考えに基づいて算出する。学習過程において、ノードの位置は入力ベクトルの分布を近似するため次第に変化し、それに伴いボロノイ領域も変化する。即ち、類似度閾値もノードの位置変化に応じて適応的に変化してゆく。
S104:S103における判定の結果、入力ベクトルが勝者ノードと異なるクラスタに属す場合は、入力ベクトルと同じ位置にノードを挿入し、S101へと進み次の入力ベクトルを処理する。尚、このときの挿入をクラス間挿入と呼ぶ。
S101: An input vector is given to SOINN.
S102: A node closest to the given input vector (hereinafter referred to as a first winner node) and a second closest node (hereinafter referred to as a second winner node) are searched.
S103: Based on the similarity threshold of the first winner node and the second winner node, it is determined whether or not the input vector belongs to the same cluster as at least one of these winner nodes. Here, the node similarity threshold is calculated based on the idea of the Voronoi region. In the learning process, the position of the node gradually changes to approximate the distribution of the input vector, and the Voronoi region also changes accordingly. That is, the similarity threshold value adaptively changes according to the change in the position of the node.
S104: If the result of determination in S103 is that the input vector belongs to a different cluster from the winner node, the node is inserted at the same position as the input vector, and the process proceeds to S101 to process the next input vector. This insertion is called interclass insertion.

S105:一方、入力ベクトルが勝者ノードと同一のクラスタに属す場合は、第1勝者ノード及び第2勝者ノード間に辺を生成し、ノード間を辺によって直接的に接続する。
S106:第1勝者ノード及び第1勝者ノードと辺によって直接的に接続しているノードの重みベクトルをそれぞれ更新する。
S107:S105において生成された辺は年齢を有しており、予め設定された閾値を超えた年齢を持つ辺を削除する。入力ベクトルを逐次的に与えてゆくオンライン学習においては、ノードの位置が常に徐々に変化してゆくため、初期の学習で構成した隣接関係が以後の学習によって成立しない可能性がある。このため、一定期間を経ても更新されないような辺について、辺の年齢が高くなるように構成することにより、学習に不要な辺を削除することができる。
S105: On the other hand, when the input vector belongs to the same cluster as the winner node, an edge is generated between the first winner node and the second winner node, and the nodes are directly connected by the edge.
S106: Update the weight vectors of the first winner node and the nodes directly connected to the first winner node by edges.
S107: The edge generated in S105 has an age, and an edge having an age exceeding a preset threshold is deleted. In online learning in which input vectors are given sequentially, the position of the node always changes gradually, so that the adjacency constructed by the initial learning may not be established by subsequent learning. For this reason, by configuring the sides that are not updated even after a certain period of time so that the age of the sides becomes high, it is possible to delete the sides that are not necessary for learning.

S108:入力ベクトルの入力総数が、予め設定されたλの倍数であるか否かを判定する。判定の結果、入力ベクトルの入力総数がλの倍数でない場合には、S101へと戻り次の入力ベクトルを処理する。一方、入力ベクトルの総数がλの倍数となった場合には以下の処理を実行する。   S108: It is determined whether the total number of inputs of the input vector is a preset multiple of λ. As a result of the determination, if the total number of input vectors is not a multiple of λ, the process returns to S101 to process the next input vector. On the other hand, when the total number of input vectors is a multiple of λ, the following processing is executed.

S109:局所累積誤差が最大であるノードを探索し、そのノード付近に新たなノードを挿入する(このときの挿入をクラス内挿入と呼ぶ。)。そして、ノードの持つ平均誤差を示す誤差半径に基づいて、ノード挿入が成功であったか否かを判定する。ここで、ノード及び入力ベクトル間の距離差をノードの持つ誤差として、入力ベクトルの入力に応じてノードの誤差を累積することにより局所累積誤差を算出する。誤差半径はノードの持つ誤差及びノードが第1勝者となった回数に基づいて算出する。   S109: A node having the maximum local accumulated error is searched, and a new node is inserted in the vicinity of the node (this insertion is called intra-class insertion). Then, based on the error radius indicating the average error of the node, it is determined whether or not the node insertion is successful. Here, the local accumulated error is calculated by accumulating the error of the node according to the input of the input vector as the error of the node, which is the distance difference between the node and the input vector. The error radius is calculated based on the error of the node and the number of times the node has become the first winner.

S110:クラス内挿入によるノード挿入が成功であると判定した場合には、クラス内挿入により挿入されたノード及び局所累積誤差が最大のノードを辺によって直接的に接続する。一方、クラス内挿入によるノード挿入が失敗であると判定した場合には、クラス内挿入により挿入したノードを削除してS111へと進む。
S111:隣接ノード数及びノードが第1勝者となった回数に基づいて、ノイズノードを削除する。
ここで、隣接ノードとは、ノードと辺によって直接的に接続されるノードを示し、隣接ノードの個数が1以下であるノードを削除対象とする。また、第1勝者となった回数の累積回数を予め設定されたパラメタcを使用して算出される閾値と比較し、第1勝者累積回数が閾値を下回るノードを削除対象とする。
S110: When it is determined that the node insertion by the intra-class insertion is successful, the node inserted by the intra-class insertion and the node having the maximum local accumulated error are directly connected by the edge. On the other hand, if it is determined that node insertion by intra-class insertion has failed, the node inserted by intra-class insertion is deleted, and the process proceeds to S111.
S111: The noise node is deleted based on the number of adjacent nodes and the number of times the node becomes the first winner.
Here, the adjacent node indicates a node that is directly connected to the node by a side, and a node whose number of adjacent nodes is 1 or less is a deletion target. Also, the cumulative number of times of becoming the first winner is compared with a threshold value calculated using a preset parameter c, and a node whose first winner cumulative number is less than the threshold value is targeted for deletion.

S112:入力ベクトルの入力総数が予め設定されたLTの倍数であるか否かを判定する。判定の結果、入力ベクトルの入力総数がLTの倍数でない場合には、S101へと戻り次の入力ベクトルを処理する。一方、入力ベクトルの総数がLTの倍数となった場合には、以下の処理を実行する。
S113:1層目の学習を終了するか否かを判定する。判定の結果、2層目の学習へと進む場合には、S101へと進み1層目の学習結果であるノードを2層目への入力ベクトルとして入力する。ただし、追加学習を行う場合は、2層目に残っている以前の学習結果を消去した上で2層目の学習を開始する。
2層目への入力回数が予め設定された回数LTの倍数となり、2層目の学習を終了する場合には、ノードを異なるクラスに分類し、クラス数及び各クラスの代表的なプロトタイプベクトルを出力し停止する。ここで、プロトタイプベクトルはノードの重みベクトルに相当する。
S112: It is determined whether or not the total number of inputs of the input vector is a preset multiple of LT. If it is determined that the total number of input vectors is not a multiple of LT, the process returns to S101 to process the next input vector. On the other hand, when the total number of input vectors is a multiple of LT, the following processing is executed.
S113: It is determined whether or not learning for the first layer is to be ended. As a result of the determination, when the process proceeds to the learning of the second layer, the process proceeds to S101 and the node that is the learning result of the first layer is input as an input vector to the second layer. However, when additional learning is performed, the previous learning result remaining in the second layer is deleted, and then the second layer learning is started.
When the number of inputs to the second layer is a multiple of the preset number of times LT and the learning of the second layer is terminated, the nodes are classified into different classes, and the number of classes and representative prototype vectors of each class are Output and stop. Here, the prototype vector corresponds to a node weight vector.

ここで、SOINNの機能を検証するために人工データセットを用いて行った実験を示す。
図3は、SOINNへと入力する2次元の人工データを示す画像である。図3に示した入力データセットは、2つのガウス分布、2つの同心円、及びサイン曲線の合計5つの信号発生源(クラス)からなる。また、実環境を想定して、5つの信号発生源から発生する信号に対して、10%の一様ノイズを加えた。SOINNに対して、図3に示した人工データセットをオンラインで追加的に入力し、教師無しのクラス分類を行わせた。
Here, an experiment performed using an artificial data set to verify the function of SOIN is shown.
FIG. 3 is an image showing two-dimensional artificial data input to the SOINN. The input data set shown in FIG. 3 is composed of a total of five signal sources (classes) of two Gaussian distributions, two concentric circles, and a sine curve. In addition, assuming an actual environment, 10% uniform noise was added to signals generated from five signal generation sources. The artificial data set shown in FIG. 3 was additionally input online to SOIN to perform unsupervised class classification.

図4は、図3に示した2次元の人工データをSOINNへと追加的に入力した場合における出力結果を示す画像である。図4に示すように、SOINNは、入力データに含まれるノイズを削除することが可能であると共に、入力データのクラス数及びそのトポロジ(位相構造)を正しく抽出することができる。   FIG. 4 is an image showing an output result when the two-dimensional artificial data shown in FIG. 3 is additionally inputted to SOINN. As shown in FIG. 4, the SOIN can remove noise included in the input data, and can correctly extract the number of classes of the input data and its topology (phase structure).

このように、SOINNは、ノード数を自律的に管理することにより非定常的な入力を学習することができ、分布に複雑な形状を持つクラスに対しても適切なクラス数及び位相構造を抽出できるなど多くの利点を持つ。SOINNの応用例として、例えばパターン認識においては、ひらがな文字のクラスを学習させた後に、カタカナ文字のクラスなどを追加的に学習させることができる。また、自己増殖型ニューラルネットワークとしてSOINNを使用することにより、ノードを自動的に増加させることができるため、入力ベクトル空間からランダムに入力ベクトルが与えられる定常的な環境に限られず、例えば一定期間毎に入力ベクトルの属するクラスが切替えられて、切替後のクラスからランダムに入力ベクトルが与えられる非定常的な環境にも対応することができる。   In this way, SOINN can learn non-stationary inputs by autonomously managing the number of nodes, and extracts the appropriate number of classes and topological structure even for classes with complex shapes in the distribution. It has many advantages such as being able to. As an application example of SOIN, for example, in pattern recognition, after learning a hiragana character class, it is possible to additionally learn a katakana character class. Further, since the number of nodes can be automatically increased by using SOINN as a self-propagating neural network, it is not limited to a stationary environment in which input vectors are randomly given from the input vector space. It is also possible to cope with a non-stationary environment in which the class to which the input vector belongs is switched and the input vector is randomly given from the switched class.

次いで、本実施の形態1に係るSOINN12について説明する。
SOINN12は、クラス間ノード挿入部121と、辺削除部122と、ノード削除部123と、重みベクトル更新部124とを備える。
クラス間ノード挿入部121は、類似度閾値算出部、類似度閾値判定部、及びノード挿入部を備える。クラス間ノード挿入部121は、入力される入力ベクトルに最も近い重みベクトルを持つノードを第1勝者ノードとし、2番目に近い重みベクトルを持つノードを第2勝者ノードとし、第1勝者ノード及び第2勝者ノードの間に辺を接続したとき、以下に述べるようにしてノードを挿入する。
Next, the SOINN 12 according to the first embodiment will be described.
The SOIN 12 includes an interclass node insertion unit 121, an edge deletion unit 122, a node deletion unit 123, and a weight vector update unit 124.
The interclass node insertion unit 121 includes a similarity threshold calculation unit, a similarity threshold determination unit, and a node insertion unit. The inter-class node insertion unit 121 sets a node having a weight vector closest to the input vector to be input as a first winner node and a node having a weight vector closest to the second as a second winner node. When an edge is connected between two winner nodes, a node is inserted as described below.

まず、類似度閾値算出部は、注目するノードについて、注目するノードと辺によって直接的に接続されるノードが存在する場合には、直接的に接続されるノードのうち注目するノードからの距離が最大であるノード間の距離を類似度閾値とし、注目するノードと辺によって直接的に接続されるノードが存在しない場合には、注目するノードからの距離が最小であるノード間の距離を類似度閾値として算出する。   First, when there is a node that is directly connected to the node of interest by a side with respect to the node of interest, the similarity threshold calculation unit calculates the distance from the node of interest among the directly connected nodes. If the distance between the nodes that is the maximum is the similarity threshold, and there is no node that is directly connected to the target node by the side, the distance between the nodes that has the minimum distance from the target node is the similarity. Calculate as the threshold.

次いで、類似度閾値判定部は、入力ベクトルと第1勝者ノード間の距離が第1勝者ノードの類似度閾値より大きいか否か、及び、入力ベクトルと第2勝者ノード間の距離が第2勝者ノードの類似度閾値より大きいか否かを判定する。
次いで、ノード挿入部は、類似度閾値判定結果に基づいて、入力ベクトルをノードとして入力ベクトルと同じ位置に挿入する。
Next, the similarity threshold determination unit determines whether the distance between the input vector and the first winner node is greater than the similarity threshold of the first winner node, and the distance between the input vector and the second winner node is the second winner. It is determined whether it is larger than the similarity threshold of the node.
Next, the node insertion unit inserts the input vector as a node at the same position as the input vector based on the similarity threshold determination result.

このようにして、入力ベクトルに応じて変化する類似度閾値によれば、挿入されるノードの個数を自律的に管理することができるため、ノードの数を事前に決定することなく、逐次的に入力される新たな連想対を既存の知識を壊すことなく追加学習することができる。   In this way, according to the similarity threshold that changes according to the input vector, the number of inserted nodes can be autonomously managed, so that the number of nodes can be sequentially determined without being determined in advance. Additional input associations can be learned without breaking existing knowledge.

重みベクトル更新部124は、入力ベクトルに最も近いノードに対応する重みベクトル、及びそのノードと辺によって直接的に接続されるノードに対応する重みベクトルをそれぞれ入力ベクトルに更に近づけるように更新する。
辺削除部122は、辺に対応付けられる辺の年齢に基づいて、辺を削除する。ノード削除部123は、注目するノードについて、注目するノードに直接的に接続される辺の本数に基づいて、注目するノードを削除する。これにより、誤って生成された辺を適切に削除することができる。辺が存在しないノードは、そのノードの持つ結合重みベクトルに近い入力の頻度が極めて低いことを示しており、ノードの保持している情報は学習すべきデータと無関係なノイズであるものとみなすことができるためである。
The weight vector update unit 124 updates the weight vector corresponding to the node closest to the input vector and the weight vector corresponding to the node directly connected by the node and the edge so as to be closer to the input vector.
The side deleting unit 122 deletes the side based on the age of the side associated with the side. The node deletion unit 123 deletes the node of interest based on the number of sides directly connected to the node of interest for the node of interest. As a result, an erroneously generated edge can be appropriately deleted. A node that does not have an edge indicates that the frequency of input close to the connection weight vector of the node is extremely low, and the information held by the node is considered to be noise unrelated to the data to be learned. It is because it can do.

図5は、SOINN12による学習処理を説明するためのフローチャートである。以下、図5を用いてSOINN12の処理を説明する。
S201:SOINN12は、2つの入力ベクトルを取得し、ノード集合Aをそれらに対応する2つのノードのみを含む集合として初期化し、その結果を一時記憶部に格納する。また、辺集合C⊂A×Aを空集合として初期化し、その結果を一時記憶部に格納する。
FIG. 5 is a flowchart for explaining learning processing by the SOINN 12. Hereinafter, the processing of the SOINN 12 will be described with reference to FIG.
S201: The SOINN 12 acquires two input vectors, initializes the node set A as a set including only two nodes corresponding to them, and stores the result in the temporary storage unit. Also, the edge set C⊂A × A is initialized as an empty set, and the result is stored in the temporary storage unit.

S202:SOINN12は、新しい入力ベクトルξを入力し、その結果を一時記憶部に格納する。
S203:SOINN12は、一時記憶部に格納された入力ベクトル及びノードについて、入力ベクトルξに最も近い重みベクトルを持つ第1勝者ノードa1及び2番目に近い重みベクトルを持つ第2勝者ノードa2を探索し、その結果を一時記憶部に格納する。
S204:クラス間ノード挿入部121は、一時記憶部に格納された入力ベクトル、ノード、ノードの類似度閾値について、入力ベクトルξと第1勝者ノードa1間の距離が第1勝者ノードa1の類似度閾値T1より大きいか否か、及び、入力ベクトルξと第2勝者ノードa2間の距離が第2勝者ノードa2の類似度閾値T2より大きいか否かを判定し、その結果を一時記憶部に格納する。ここで、一時記憶部に格納された第1勝者ノードa1の類似度閾値T1及び第2勝者ノードa2の類似度閾値T2は、SOINNと同様にして算出され、その結果が一時記憶部に格納される。
S202: The SOINN 12 inputs a new input vector ξ and stores the result in the temporary storage unit.
S203: The SOINN 12 determines the first winner node a 1 having the weight vector closest to the input vector ξ and the second winner node a 2 having the second closest weight vector for the input vector and the node stored in the temporary storage unit. Search and store the result in the temporary storage.
S204: interclass node insertion unit 121, an input vector stored in the temporary storage unit, node, the node similarity threshold, the distance between the input vector ξ and the first winning node a 1 is first winning node a 1 It is determined whether or not it is greater than the similarity threshold T 1 and whether the distance between the input vector ξ and the second winner node a 2 is greater than the similarity threshold T 2 of the second winner node a 2 , and the result Is stored in the temporary storage unit. Here, the similarity threshold T 2 of the similarity threshold T 1 and the second winning node a 2 of the first winning node a 1 stored in the temporary storage unit is calculated in the same manner as SOINN, the result is temporarily stored Stored in the department.

S205:一時記憶部に格納されたS204における判定の結果、入力ベクトルξと第1勝者ノードa1間の距離が第1勝者ノードa1の類似度閾値T1より大きい、又は、入力ベクトルξと第2勝者ノードa2間の距離が第2勝者ノードa2の類似度閾値T2より大きい場合には、クラス間ノード挿入部121は、一時記憶部に格納された入力ベクトル及びノードについて、入力ベクトルξを新たなノードiとして、入力ベクトルξと同じ位置に挿入し、その結果を一時記憶部に格納する。
S206:一方、一時記憶部に格納されたS204における判定の結果、入力ベクトルξと第1勝者ノードa1間の距離が第1勝者ノードa1の類似度閾値T1以下であり、かつ、入力ベクトルξと第2勝者ノードa2間の距離が第2勝者ノードa2の類似度閾値T2以下である場合には、SOINN12は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノードa1及び第2勝者ノードa2間に辺を接続するか否かを判定し、その結果を一時記憶部に格納する。
S205: As a result of the determination in S204 stored in the temporary storage unit, the distance between the input vector ξ and the first winner node a 1 is greater than the similarity threshold T 1 of the first winner node a 1 , or the input vector ξ when the distance between the second winning node a 2 is greater than the similarity threshold T 2 of the second winning node a 2 are, inter-class node insertion unit 121, the input vector and node stored in the temporary storage unit, an input The vector ξ is inserted as a new node i at the same position as the input vector ξ, and the result is stored in the temporary storage unit.
S206: On the other hand, as a result of the determination in S204 stored in the temporary storage unit, the distance between the input vector ξ and the first winner node a 1 is equal to or less than the similarity threshold T 1 of the first winner node a 1 and the input When the distance between the vector ξ and the second winner node a 2 is equal to or less than the similarity threshold T 2 of the second winner node a 2 , the SOIN 12 stores the nodes stored in the temporary storage unit and the edges between the nodes. It is determined whether or not an edge is connected between the first winner node a 1 and the second winner node a 2 , and the result is stored in the temporary storage unit.

S207:一時記憶部に格納されたS206における判定の結果、第1勝者ノードa1及び第2勝者ノードa2間に辺を生成して接続する場合には、SOINN12は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間に辺を接続し、その結果を一時記憶部に格納する。そして、SOINN12は、一時記憶部に格納された辺及び辺の年齢について、新しく生成された辺、及び、既にノード間に辺が生成されていた場合にはその辺について、辺の年齢を0に設定しその結果を一時記憶部に格納し、第1勝者ノードa1と直接的に接続される辺の年齢をインクリメントし(1増やす)、その結果を一時記憶部に格納する。
一方、一時記憶部に格納されたS206における判定の結果、第1勝者ノードa1及び第2勝者ノードa2間に辺を接続しない場合には、S208へと処理を進めるが、既にノード間に辺が生成されていた場合には、SOINN12は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノードa1及び第2勝者ノードa2間の辺を削除し、その結果を一時記憶部に格納する。
次いで、SOINN12は、一時記憶部に格納された第1勝者ノードa1が第1勝者ノードとなった累積回数Ma1をインクリメントし(1増やす)、その結果を一時記憶部に格納する。
S207: As a result of the judgment in S206 stored in the temporary storage unit, when connecting to generate edges between the first winning node a 1 and the second winning node a 2, SOINN12 is stored in the temporary storage unit For the nodes and the sides between the nodes, the sides are connected between the first winner node and the second winner node, and the result is stored in the temporary storage unit. Then, the SOIN 12 sets the side age of the side and the age of the side stored in the temporary storage unit to 0 for the newly generated side and for the side if the side has already been generated between the nodes. Set and store the result in the temporary storage unit, increment the age of the side directly connected to the first winner node a 1 (increase by 1), and store the result in the temporary storage unit.
On the other hand, the result of determination in S206 stored in the temporary storage unit, when not connected to edges between the first winning node a 1 and the second winning node a 2, although the process proceeds to S208, already between nodes If the edge has been generated, the SOIN 12 deletes the edge between the first winner node a 1 and the second winner node a 2 for the node stored in the temporary storage unit and the edge between the nodes, and as a result Is stored in the temporary storage unit.
Next, the SOIN 12 increments (accumulates by 1) the cumulative number of times M a1 that the first winner node a 1 stored in the temporary storage unit has become the first winner node, and stores the result in the temporary storage unit.

S208:重みベクトル更新部124は、一時記憶部に格納されたノード及びノードの重みベクトルについて、第1勝者ノードa1の重みベクトル及び第1勝者ノードa1の隣接ノードの重みベクトルをそれぞれ入力ベクトルξに更に近づけるように更新し、その結果を一時記憶部に格納する。ここで、重みベクトルの更新量の算出には、一時記憶部に格納されるMa1をtとして使用する。
S209:辺削除部122は、一時記憶部に格納された辺について、予め設定され一時記憶部に格納された閾値ageを超えた年齢を持つ辺を削除し、その結果を一時記憶部に格納する。尚、ageはノイズなどの影響により誤って生成される辺を削除するために使用する。ageに小さな値を設定することにより、辺が削除されやすくなりノイズによる影響を防ぐことができるものの、値を極端に小さくすると、頻繁に辺が削除されるようになり学習結果が不安定になる。一方、極端に大きな値をageに設定すると、ノイズの影響で生成された辺を適切に取り除くことができない。これらを考慮して、パラメタageは実験により予め算出し一時記憶部に格納される。
S208: weight vector updating unit 124, the weight vector of the stored node and the node in the temporary storage unit, respectively the input vector the weight vector of the weight vector of the first winning node a 1 and first winning node a 1 neighbor nodes Update it so that it is closer to ξ, and store the result in the temporary storage. Here, for calculation of the update amount of the weight vector, M a1 stored in the temporary storage unit is used as t.
S209: side deleting unit 122 stores the stored edge in the temporary storage unit, delete the edges with a exceeds a preset threshold age t stored in the temporary storage unit age, the result in the temporary storage unit To do. The age t is used to delete a side that is erroneously generated due to the influence of noise or the like. By setting a small value for age t , edges can be easily deleted and the effect of noise can be prevented. However, if the value is extremely small, edges are frequently deleted and the learning result becomes unstable. Become. On the other hand, if excessively set to a large value age t, it can not be removed edges generated by influence of noise appropriately. Taking these into account, the parameter age t is calculated in advance by experiments and stored in the temporary storage unit.

S210:SOINN12は、一時記憶部に格納された与えられた入力ベクトルξの総数について、与えられた入力ベクトルξの総数が予め設定され一時記憶部に格納されたλの倍数であるか否かを判定し、その結果を一時記憶部に格納する。一時記憶部に格納された判定の結果、入力ベクトルの総数がλの倍数でない場合にはS202へと戻り、次の入力ベクトルξを処理する。一方、入力ベクトルξの総数がλの倍数となった場合には以下の処理を実行する。尚、λはノイズと見なされるノードを削除する周期である。λに小さな値を設定することにより、頻繁にノイズ処理を実施することができるものの、値を極端に小さくすると、実際にはノイズではないノードを誤って削除してしまう。一方、極端に大きな値をλに設定すると、ノイズの影響で生成されたノードを適切に取り除くことができない。これらを考慮して、パラメタλは実験により予め算出し一時記憶部に格納される。
S211:ノード削除部123は、一時記憶部に格納されたノードについて、ノイズノードと見なしたノードを削除し、その結果を一時記憶部に格納する。
S210: SOIN 12 determines whether or not the total number of input vectors ξ stored in the temporary storage unit is a multiple of λ set in advance and stored in the temporary storage unit. The determination is made, and the result is stored in the temporary storage unit. As a result of the determination stored in the temporary storage unit, if the total number of input vectors is not a multiple of λ, the process returns to S202 to process the next input vector ξ. On the other hand, when the total number of input vectors ξ is a multiple of λ, the following processing is executed. Note that λ is a period for deleting a node regarded as noise. Although it is possible to frequently perform noise processing by setting a small value to λ, if the value is extremely small, nodes that are not actually noise are erroneously deleted. On the other hand, if an extremely large value is set to λ, a node generated due to noise cannot be removed appropriately. In consideration of these, the parameter λ is calculated in advance through experiments and stored in the temporary storage unit.
S211: The node deletion unit 123 deletes a node regarded as a noise node for the node stored in the temporary storage unit, and stores the result in the temporary storage unit.

S212:SOINN12は、一時記憶部に格納された与えられた入力ベクトルξの総数について、与えられた入力ベクトルξの総数が予め設定されたLTの倍数であるか否かを判定し、その結果を一時記憶部に格納する。一時記憶部に格納された判定の結果、入力ベクトルの総数がLTの倍数でない場合にはS202へと戻り、次の入力パターンξを処理する。一方、入力ベクトルξの総数がLTの倍数となった場合には以下の処理を実行する。
S213:SOINN12は、一時記憶部に格納されたノードをプロトタイプとして出力する。以上の処理を終了した後、SOINN12による学習を停止する。
S212: The SOINN 12 determines whether or not the total number of input vectors ξ stored in the temporary storage unit is a multiple of a preset LT and the result Store in the temporary storage. If the total number of input vectors is not a multiple of LT as a result of the determination stored in the temporary storage unit, the process returns to S202 to process the next input pattern ξ. On the other hand, when the total number of input vectors ξ is a multiple of LT, the following processing is executed.
S213: The SOINN 12 outputs the node stored in the temporary storage unit as a prototype. After completing the above processing, learning by the SOINN 12 is stopped.

認識部20は、各クラスの訓練パターンから構成されたテンプレートモデルと入力パターンをマッチングすることにより、入力パターンがどのクラスに属するかを認識する。クラスcのテンプレートモデルTMと入力パターンIPとのDPマッチングには対称型漸化式を使用し、以下の漸化式を用いる。尚、尤度C(x,S)はテンプレートモデルTMのj番目の状態Sに対する、入力パターンIPのi番目の要素xの尤度を示し、後述する尤度算出部21により算出される。
ここでは、上記数2と同様の対称型漸化式を用いた。これにより、実データの認識実験において、非対称型漸化式を用いた場合に比べて、認識精度を向上させることができる。
The recognition unit 20 recognizes which class the input pattern belongs to by matching the input pattern with a template model composed of training patterns of each class. The DP matching between the template model TM c and the input pattern IP class c using a symmetric recurrence formula, using the following recurrence formula. The likelihood C (x i , S j ) indicates the likelihood of the i-th element x i of the input pattern IP with respect to the j-th state S j of the template model TM c. Calculated.
Here, the same symmetric recursion formula as in Equation 2 was used. Thereby, in the recognition experiment of real data, recognition accuracy can be improved compared with the case where an asymmetric type recurrence formula is used.

そして、認識部20は、尤度C(x,S)の和が最大になるようにDPマッチングを行う。即ち、上記数2においては、累積距離g(i,j)を最小化するためminが用いられたが、上記数5においては、Q(i,j)を最大化するためmaxが用いられる。
DPマッチングの結果、テンプレートモデルTMと入力パターンIPの累積一致度E(IP,TM)を以下の式に基づいて算出する。尚、IIPは入力パターンIPの時系列長、JはTMの時系列長を示す。
従って、認識部20は、入力パターンを以下の式に基づいて認識する。ここで以下の式は、入力パターンIPと累積一致度E(IP,TM)が最も大きなテンプレートモデルのクラス番号を出力する関数であり、この場合に、入力パターンIPの帰属クラスはcであるものと認識する。
Then, the recognizing unit 20 performs DP matching so that the sum of the likelihoods C (x i , S j ) is maximized. That is, in Equation 2, min is used to minimize the accumulated distance g (i, j), but in Equation 5, max is used to maximize Q (i, j).
As a result of the DP matching, a cumulative matching degree E (IP, TM c ) between the template model TM c and the input pattern IP is calculated based on the following equation. I IP represents the time series length of the input pattern IP, and J c represents the time series length of TM c .
Therefore, the recognition unit 20 recognizes the input pattern based on the following expression. Here, the following expression is a function that outputs the class number of the template model having the largest input pattern IP and cumulative match E (IP, TM c ). In this case, the attribute class of the input pattern IP is c * . Recognize that there is.

尤度算出部21は、大域的尤度算出部211及び局所的尤度算出部212を有し、ノードに基づいて、テンプレートモデルにおける状態の出力分布を算出する。以下詳細に説明する。
尤度算出部21は、SOINN12に配置されたノード、及び辺によって接続されたノードからなるクラスタとに基づいて、尤度C(x,S)を算出する。具体的には、以下の式に基づいて、大域的尤度log(Pwhole(x|S))及び局所的尤度Pclass(x|Ujk)を用いて、尤度C(x,S)を算出する。図6は、SOINN12によってクラスタリングされ、SOINN12に存在する複数の内部クラス(ここでは、Class1乃至3)を示す図である。SOINN12によって生成された1つのクラスタを内部クラスと定義する。内部クラスはノードの参照ベクトル(プロトタイプベクトル群)により表現される。
ここで、wを以下の式に基づいて算出する。尚、Nallは状態SのSOINN12内に存在する全ノードの総数を示し、Kは状態SのSOINN12内の内部クラス数を示す。
The likelihood calculating unit 21 includes a global likelihood calculating unit 211 and a local likelihood calculating unit 212, and calculates an output distribution of states in the template model based on the nodes. This will be described in detail below.
The likelihood calculating unit 21 calculates the likelihood C (x i , S j ) based on the nodes arranged in the SOINN 12 and the cluster composed of nodes connected by the sides. Specifically, based on the following equation, global likelihood log (P whole (x i | S j)) and local likelihood P class | using (x i U jk), the likelihood C ( x i , S j ) is calculated. FIG. 6 is a diagram showing a plurality of inner classes (here, Class 1 to 3) that are clustered by the SOINN 12 and exist in the SOINN 12. As shown in FIG. One cluster generated by the SOINN 12 is defined as an inner class. The inner class is represented by a node reference vector (prototype vector group).
Here, w k is calculated based on the following equation. Incidentally, N all denotes the total number of all the nodes in the SOINN12 state S j, K is the number of internal classes in SOINN12 state S j.

これにより、入力パターンの特徴量を大域的尤度及び局所域的尤度を用いて反映させることにより、各状態の出力分布が単一の多次元正規分布では近似できない場合であっても、テンプレートモデルにおける各状態の出力分布をより詳細に近似することができるため、時系列データをより精度良く認識することができる。また、入力パターンに応じて大域的尤度及び局所域的尤度を反映させることにより、各状態の出力分布に対してより柔軟に対応することができる。   As a result, even if the output distribution of each state cannot be approximated by a single multidimensional normal distribution by reflecting the feature quantity of the input pattern using the global likelihood and the local likelihood, the template Since the output distribution of each state in the model can be approximated in more detail, time-series data can be recognized with higher accuracy. In addition, by reflecting the global likelihood and the local likelihood according to the input pattern, it is possible to respond more flexibly to the output distribution of each state.

大域的尤度算出部211は、SOINN12に配置された全てのノードに基づいて大域的尤度を算出する。具体的には、大域的尤度の算出にはj番目の状態SのSOINN12内に存在する全ノードを用いる。大域的尤度は、状態のSOINN12内に存在する全ノードを多次元正規分布の確率密度関数で近似し、この密度関数からの生起確率Pwhole(x|S)によって算出する。生起確率Pwhole(x|S)を以下の式に基づいて算出する。ここで、μは状態SのSOINN12内に存在する全ノードの平均ベクトル、Σは共分散行列である。これらの2つのパラメタは最尤推定により算出する。生起確率Pwhole(x|S)の対数尤度log(Pwhole(x|S))を、大域的尤度として定義する。
The global likelihood calculating unit 211 calculates the global likelihood based on all the nodes arranged in the SOINN 12. Specifically, all nodes existing in the SOINN 12 in the j-th state S j are used to calculate the global likelihood. The global likelihood is calculated by approximating all nodes existing in the state SOINN 12 with a probability density function of a multidimensional normal distribution, and the occurrence probability Pwhole (x i | S j ) from this density function. The occurrence probability P whole (x i | S j ) is calculated based on the following equation. Here, μ i is an average vector of all nodes existing in the SOIN 12 in the state S j , and Σ j is a covariance matrix. These two parameters are calculated by maximum likelihood estimation. The log likelihood log (P whole (x i | S j )) of the occurrence probability P whole (x i | S j ) is defined as the global likelihood.

局所的尤度算出部212は、SOINN12に存在する複数のクラスタについて、そのクラスタに属するノードに基づいて局所的尤度を算出する。局所的尤度は、SOINN12によってクラスタリングされた、複数の内部クラスの情報を用いて算出する。例えば図6に示した各内部クラス(Class1乃至3)を、多変量正規分布に基づく核関数で近似する。ここで核関数を用いた理由は、各内部クラスが保有するノード数は少数の場合(最低で二個)が多く、このような少数データから多次元正規分布を推定することが困難なためである。SOINN12におけるk番目の内部クラスをUjkと定義し、Ujkから推定される局所的尤度Pclass(x|Ujk)を以下の式に基づいて算出する。
ここで、xjkはSOINN12内の内部クラスUjkに存在する全ノードの平均ベクトル、hjkは核関数の領域の大きさを示すパラメタであり、以下の式に基づいて算出する。尚、aは内部クラスUjkのノードtの位置ベクトルを示し、Njkは内部クラスUjkに含まれるノードの総数を示す。
The local likelihood calculating unit 212 calculates a local likelihood for a plurality of clusters existing in the SOINN 12 based on nodes belonging to the cluster. The local likelihood is calculated using information of a plurality of inner classes clustered by the SOINN 12. For example, each inner class (Class 1 to Class 3) shown in FIG. 6 is approximated by a kernel function based on a multivariate normal distribution. The reason for using the kernel function here is that each inner class has a small number of nodes (at least two), and it is difficult to estimate a multidimensional normal distribution from such a small number of data. is there. The kth inner class in the SOINN 12 is defined as U jk, and the local likelihood P class (x i | U jk ) estimated from U jk is calculated based on the following equation.
Here, x jk is an average vector of all nodes existing in the inner class U jk in the SOINN 12, and h jk is a parameter indicating the size of the region of the kernel function, and is calculated based on the following equation. Incidentally, a t denotes the position vector of the node t of the internal class U jk, N jk indicates the total number of nodes included within the class U jk.

以上のようなパターン認識装置1は、専用コンピュータ、パーソナルコンピュータ(PC)などのコンピュータにより実現可能である。但し、コンピュータは、物理的に単一である必要はなく、分散処理を実行する場合には、複数であってもよい。   The pattern recognition apparatus 1 as described above can be realized by a computer such as a dedicated computer or a personal computer (PC). However, the computer does not need to be physically single, and a plurality of computers may be used when performing distributed processing.

図7は、本実施の形態1に係るパターン認識装置1を実現するためのシステム構成の一例を示す図である。図7に示すように、コンピュータ40は、CPU41(Central Processing Unit)、ROM42(Read Only Memory)及びRAM43(Random Access Memory)を有し、これらがバス44を介して相互に接続されている。尚、コンピュータを動作させるためのOSソフトなどは、説明を省略するが、このパターン認識装置1を構築するコンピュータも当然備えているものとする。   FIG. 7 is a diagram illustrating an example of a system configuration for realizing the pattern recognition apparatus 1 according to the first embodiment. As shown in FIG. 7, the computer 40 includes a CPU 41 (Central Processing Unit), a ROM 42 (Read Only Memory), and a RAM 43 (Random Access Memory), which are connected to each other via a bus 44. Although explanation of OS software for operating the computer is omitted, it is assumed that a computer for constructing the pattern recognition apparatus 1 is also provided.

バス44には又、入出力インターフェイス45も接続されている。入出力インターフェイス45には、例えば、キーボード、マウス、センサなどよりなる入力部46、CRT、LCDなどよりなるディスプレイ、並びにヘッドフォンやスピーカなどよりなる出力部47、ハードディスクなどより構成される記憶部48、モデム、ターミナルアダプタなどより構成される通信部49などが接続されている。   An input / output interface 45 is also connected to the bus 44. The input / output interface 45 includes, for example, an input unit 46 including a keyboard, a mouse, and a sensor, a display including a CRT and an LCD, an output unit 47 including a headphone and a speaker, a storage unit 48 including a hard disk, A communication unit 49 including a modem and a terminal adapter is connected.

CPU41は、ROM42に記憶されている各種プログラム、又は記憶部48からRAM43にロードされた各種プログラムに従って各種の処理、本実施の形態においては、例えば点プレーモデル生成処理や認識処理を実行する。RAM43には又、CPU41が各種の処理を実行する上において必要なデータなども適宜記憶される。通信部49は、例えば図示しないインターネットを介しての通信処理を行ったり、CPU41から提供されたデータを送信したり、通信相手から受信したデータをCPU41、RAM43、記憶部48に出力したりする。記憶部48はCPU41との間でやり取りし、情報の保存・消去を行う。通信部49は又、他の装置との間で、アナログ信号又はディジタル信号の通信処理を行う。入出力インターフェイス45は又、必要に応じてドライブ50が接続され、例えば、磁気ディスク501、光ディスク502、フレキシブルディスク503、又は半導体メモリ504などが適宜装着され、それらから読み出されたコンピュータプログラムが必要に応じて記憶部48にインストールされる。   The CPU 41 executes various processes according to various programs stored in the ROM 42 or various programs loaded from the storage unit 48 to the RAM 43. In the present embodiment, for example, a point play model generation process and a recognition process are executed. The RAM 43 also appropriately stores data necessary for the CPU 41 to execute various processes. The communication unit 49 performs, for example, communication processing via the Internet (not shown), transmits data provided from the CPU 41, and outputs data received from a communication partner to the CPU 41, the RAM 43, and the storage unit 48. The storage unit 48 communicates with the CPU 41 to save and erase information. The communication unit 49 also performs communication processing of analog signals or digital signals with other devices. The input / output interface 45 is also connected to a drive 50 as required. For example, a magnetic disk 501, an optical disk 502, a flexible disk 503, or a semiconductor memory 504 is appropriately mounted, and a computer program read from them is required. Is installed in the storage unit 48 accordingly.

続いて、本実施の形態1に係るテンプレートモデル生成処理及び認識処理について説明する。図8は、パターン認識装置1によるテンプレートモデル生成処理の概要を示すフローチャートである。以下、図8を参照しながらパターン認識装置1によるテンプレートモデル生成処理について説明する。テンプレートモデル生成部10は、クラスCに属するテンプレートモデルを以下のようにして生成する。ここで、テンプレートモデル生成部10は、クラスごとにテンプレートモデルを生成する。   Next, template model generation processing and recognition processing according to the first embodiment will be described. FIG. 8 is a flowchart showing an outline of template model generation processing by the pattern recognition apparatus 1. Hereinafter, template model generation processing by the pattern recognition apparatus 1 will be described with reference to FIG. The template model generation unit 10 generates a template model belonging to class C as follows. Here, the template model generation unit 10 generates a template model for each class.

S301:訓練用パターンDB31より、N個の訓練パターンが与えられ、標準パターン選択部11は、訓練パターン群から1つの標準パターンを選択する。より具体的には、クラスCに含まれるある訓練パターンPと、クラスCに含まれるPを除いた他の訓練パターンとの間でDPマッチングを行う。この処理を、クラスC内の訓練パターンの全組合せ(総当り)によって行う。DPマッチングの結果より得られるパターン間同士の累積距離の和を算出し、累積距離の和が最小となるパターンを標準パターンとして選択する。即ち、以下の式に基づいて標準パターンを選択する。ここで、argは、各訓練パターン間の累積距離の和が最小となる訓練パターンの番号mを出力する。
このようにして、クラスCのm番目の訓練パターンを、テンプレートモデルの中心となる標準パターンPとして選択する。尚、Pのフレーム数Tを、テンプレートモデルの時系列長とする。
S301: N training patterns are given from the training pattern DB 31, and the standard pattern selection unit 11 selects one standard pattern from the training pattern group. More specifically, DP matching is performed between a certain training pattern P m included in class C and another training pattern excluding P m included in class C. This processing is performed by all combinations (brute force) of training patterns in class C. The sum of accumulated distances between patterns obtained from the DP matching result is calculated, and a pattern having the smallest accumulated distance is selected as a standard pattern. That is, a standard pattern is selected based on the following formula. Here, arg outputs the number m * of the training pattern that minimizes the sum of the cumulative distances between the training patterns.
In this way, the m * th training pattern of class C is selected as the standard pattern P * that is the center of the template model. Note that the number of frames T * of P * is the time series length of the template model.

S302:DPマッチングにおいて対応付けられた訓練パターンのフレームデータを、テンプレートモデルにおける状態としてのSOINN12へと入力する。より具体的には、SOINN12への入力は、DPマッチングによる結果を用いて実現することができる。即ち、標準パターンPと、その他N−1個の訓練パターンとの間でDPマッチングを行った結果、その他の全訓練パターンの時系列長は標準パターンPの時系列長に正規化される。また、標準パターンPの各要素と、その他N−1個の訓練パターンの各要素との対応付けが得られる。このようなDPマッチングの結果に基づいて、以下に説明するようにして、対応関係にある要素(ベクトル)群を各SOINN12空間(各状態)に入力する。 S302: The training pattern frame data associated in the DP matching is input to the SOINN 12 as a state in the template model. More specifically, the input to the SOINN 12 can be realized using the result of DP matching. That is, as a result of DP matching between the standard pattern P * and the other N-1 training patterns, the time series length of all other training patterns is normalized to the time series length of the standard pattern P *. . Further, the correspondence between each element of the standard pattern P * and each element of the N−1 training patterns is obtained. Based on the result of such DP matching, an element (vector) group having a correspondence relationship is input to each SOIN 12 space (each state) as described below.

まず、標準パターンPの第j番目の要素をp 、訓練パターンP(n∈C)の第i番目(iフレーム目)の要素をp とし、このp とp との最適な対応付けwを以下のように定義する。
上記数14に従って、訓練パターンのi番目の要素をj番目の状態(SOINN12空間)に分配する。このような分配操作を、標準パターンと、その他N−1個の訓練パターンとの間で行った後、N−1個の最適経路wを(n=1,・・・,N−1)を得ることができる。このN−1個の最適経路に従って、各状態に対して訓練パターンの各要素を分配する。
First, the j-th element of the standard pattern P * is p * j , the i-th (i-th frame) element of the training pattern P n (nεC) is p n i, and p * j and p n An optimal association w n with i is defined as follows.
According to the above equation 14, the i-th element of the training pattern is distributed to the j-th state (SOINN 12 space). Such dispensing operation, and the standard pattern, after between other N-1 pieces of exercise pattern, the N-1 an optimal path w n (n = 1, ··· , N-1) Can be obtained. According to the N-1 optimum paths, each element of the training pattern is distributed to each state.

ここで、本実施の形態1では、ある時間の範囲(状態間)に分配された要素集合群を、1つのSOINN12へと入力する。具体的には、j番目の状態に分配された要素集合群をZ として以下の式に示すように定義し、ZからZj+L−1までの要素集合を、j番目の状態(SOINN12)に入力する。
尚、Lはパラメタであり、このパラメタをSegment数として定義する。パラメタの設定方法については後述する。ここで、テンプレートモデルの状態数はSegment数L及び標準パターンの時系列長Tを用いて、T−L−1として決定することができる。これにより、事前にテンプレートモデルにおける状態数を決定せずに、標準パターンのフレーム数に応じてテンプレートモデルにおける状態数を決定することができる。
Here, in the first embodiment, an element set group distributed in a certain time range (between states) is input to one SOINN 12. Specifically, an element set group distributed to the jth state is defined as Z * j as shown in the following formula, and an element set from Zj to Zj + L−1 is defined as the jth state (SOINN12 ).
Note that L is a parameter, and this parameter is defined as the number of segments. The parameter setting method will be described later. Here, the number of states of the template model can be determined as T * −L−1 by using the Segment number L and the time series length T * of the standard pattern. Thus, the number of states in the template model can be determined according to the number of frames of the standard pattern without previously determining the number of states in the template model.

図9は、訓練パターンをSOINN12へと入力するようすを示す図である。図9において、Criterion Dataは標準パターンを示し、Data1乃至3は訓練パターンを示す。Data及びCriterion Dataの各ブロックは、各時刻(フレーム)の要素ベクトルを示す。各ブロックにおいて同色の部分は、DPマッチング後の最適経路における対応箇所を示している。例えば、Criterion Dataの1フレーム目の要素に対応した要素は、Data1の1及び2番目の要素、Data2の1番目の要素、及びData3の1番目の要素であり、これらの要素集合がZとなる。実線は対応する要素集合Zを結ぶ線である。破線はZの要素集合、Zの要素集合をそれぞれ示す。ZからZまでの要素集合群Z が、クラスCのテンプレートモデルにおける状態1(SOINN12)に対して入力される。 FIG. 9 is a diagram showing how a training pattern is input to the SOINN 12. In FIG. 9, Criterion Data indicates a standard pattern, and Data 1 to 3 indicate training patterns. Each block of Data and Criterion Data indicates an element vector at each time (frame). The same color part in each block indicates the corresponding part in the optimum route after DP matching. For example, the elements corresponding to the elements in the first frame of Criterion Data are the first and second elements of Data1, the first element of Data2, and the first element of Data3. These element sets are Z 1 and Become. The solid line is a line connecting the corresponding element set Z 1. The broken lines indicate element set of Z 2, the element set of Z 3, respectively. Element set group Z * 1 from Z 1 to Z L are input to state 1 (SOINN12) in the template model class C.

S303:SOINN12は、フレームデータに基づいて学習を行う。各状態jにおいて、フレームデータとしての要素集合群Z をSOINN12空間に入力する。ここでSOINN12がオンライン学習可能な手法であるため、要素集合群Z を入力する際、要素集合群Z の各要素を1つずつランダムに入力する。ランダムに入力されるベクトルがSOINN12空間に入力されると、SOINN12空間ではノード及び辺の生成、削除が繰り返され、最終的に複数の代表的ノード集合(クラスタ)が形成される。SOINN12による学習結果が、テンプレートモデル学習結果DB32に格納される。上述したように、尤度算出部21は、このようにして形成された複数の代表的ノード集合から、状態の出力分布を推定する。 S303: The SOINN 12 performs learning based on the frame data. In each state j, an element set group Z * j as frame data is input to the SOINN 12 space. Here, since SOIN 12 is a technique that enables online learning, when the element set group Z * j is input, each element of the element set group Z * j is input at random one by one. When a randomly input vector is input to the SOINN 12 space, generation and deletion of nodes and edges are repeated in the SOIN 12 space, and finally a plurality of representative node sets (clusters) are formed. A learning result by the SOINN 12 is stored in the template model learning result DB 32. As described above, the likelihood calculating unit 21 estimates the output distribution of the state from the plurality of representative node sets formed in this way.

次に、認識処理について説明する。図10は、パターン認識装置1による認識処理の概要を示すフローチャートである。以下、図10を参照しながらパターン認識装置1による認識処理について説明する。   Next, the recognition process will be described. FIG. 10 is a flowchart showing an outline of recognition processing by the pattern recognition apparatus 1. Hereinafter, the recognition processing by the pattern recognition apparatus 1 will be described with reference to FIG.

S401:時系列パターンであるテストパターンXが入力される。
S402:認識部20は、テンプレートモデル学習結果DB32に格納されたSOINN12の学習結果より尤度C(x,S)を算出して、各クラスのテンプレートモデルとテストパターンXとをDPマッチングする。
S403:尤度Q(i,j)が最大となったテンプレートモデルの帰属クラスを出力する。これにより、例えば、クラス3のテンプレートモデルに対する尤度が最大となった場合には、テストパターンXはクラス3であるものと認識する。
S401: A test pattern X that is a time-series pattern is input.
S402: The recognizing unit 20 calculates the likelihood C (x i , S j ) from the learning result of the SOINN 12 stored in the template model learning result DB 32, and performs DP matching between the template model of each class and the test pattern X. .
S403: Output the attribution class of the template model having the maximum likelihood Q (i, j). Thereby, for example, when the likelihood with respect to the template model of class 3 is maximized, the test pattern X is recognized as class 3.

続いて、本発明の実施の形態1に係るパターン認識装置1による効果について説明する。尚、以下においては、パターン認識装置1をモデル化した手法をSOINN−DP法と呼ぶ。
SOINN−DP法の有効性を確認するため、実データを用いて検証実験を行った。実験においては、時系列データの汎用的学習機能を評価するため、音素データ及び動画像より得られる動作データの2種類のデータセットを使用した。また、従来手法であるHMM及びストキャスティックDP法との比較実験を行った。以下、各手法による検証実験及び結果について説明する前に、まず従来手法であるHMM及びストキャスティックDP法について簡単に説明し、次にSOINN−DP法に関するパラメタ設定について説明する。
Then, the effect by the pattern recognition apparatus 1 which concerns on Embodiment 1 of this invention is demonstrated. In the following, a method that models the pattern recognition apparatus 1 is referred to as a SOIN-DP method.
In order to confirm the effectiveness of the SOIN-DP method, a verification experiment was performed using actual data. In the experiment, two types of data sets of phoneme data and motion data obtained from moving images were used in order to evaluate a general-purpose learning function of time series data. In addition, comparative experiments with the conventional method HMM and stochastic DP method were conducted. Before explaining the verification experiments and results by each method, the HMM and the stochastic DP method, which are conventional methods, will be briefly described first, and then the parameter setting for the SOIN-DP method will be described.

まず、従来手法であるHidden Markov Model(HMM)について簡単に説明する。HMMは、不確定な時系列のデータをモデル化するための有効な統計的手法であり、出力シンボルによって一意に状態遷移先が決定しないという意味において、非決定性確率有限オートマトンとして定義される。ここで、HMMのパラメタには、状態遷移確率、シンボル出力確率、及び初期状態確率の3つのパラメタがある。
HMMは、シンボル出力確率の算出方法によって、離散型HMM及び連続分布型HMMに分類される。音声認識・動作認識においては連続分布型HMMが一般的に使用されるため、本実施の形態1においては、連続分布型HMMを比較手法として採用する。
また、HMMは、トポロジ(状態の接続関係)によって、あるひとつの状態から全ての状態に遷移可能な全遷移型(Ergodic)モデルや、状態遷移が一定方向に進むleft to rightモデルなどに分類される。音声認識や動作認識の分野においては、left to rightモデルが一般的に用いられるため、本実施の形態1においては、left to rightモデルを比較手法として採用する。
HMMのパラメタ推定方法には、一般的に使用されるBaum Welchアルゴリズムを用いた。また、Baum Welchアルゴリズムによるパラメタ推定精度を向上させるため、パラメタの初期値設定についてSegmental kmeans法を使用する。
First, a conventional method, Hidden Markov Model (HMM), will be briefly described. The HMM is an effective statistical method for modeling uncertain time-series data, and is defined as a nondeterministic probability finite automaton in the sense that a state transition destination is not uniquely determined by an output symbol. Here, the HMM parameters include three parameters: a state transition probability, a symbol output probability, and an initial state probability.
HMMs are classified into discrete HMMs and continuous distribution HMMs according to the symbol output probability calculation method. In speech recognition / motion recognition, a continuous distribution HMM is generally used. Therefore, in the first embodiment, a continuous distribution HMM is employed as a comparison method.
In addition, HMMs are classified according to topology (state connection relation) into an all-transition type (Ergodic) model capable of transitioning from one state to all states, and a left to right model in which state transition proceeds in a certain direction. The Since the left to right model is generally used in the field of speech recognition and motion recognition, the left to right model is employed as a comparison method in the first embodiment.
A generally used Baum Welch algorithm was used for the parameter estimation method of the HMM. Further, in order to improve the parameter estimation accuracy by the Baum Welch algorithm, the Segmental kmans method is used for setting the initial value of the parameter.

次に、従来手法であるストキャスティックDP法について簡単に説明する。
ストキャスティックDP法において用いられる漸化式を次式に示す。漸化式は上記数4に示した非対称型の漸化式を基盤として構成されている。
Next, the conventional stochastic DP method will be briefly described.
The recurrence formula used in the stochastic DP method is shown below. The recurrence formula is configured on the basis of the asymmetric recurrence formula shown in Equation 4 above.

上記数16に示した漸化式における条件確率P(a|j)及び状態遷移確率PDP1,2,3(j)は非特許文献4に記載された手法により算出した。ここで、条件付確率P(a|j)は多次元正規分布である。P(a|j)の共分散行列に関しては、ある範囲において同一のものを使用した。例えば、10個の状態により同じ共分散行列を使用する場合に、状態1から10に対して分配された全てのデータから、最尤推定により1つの共分散行列を算出し、状態1から10の各状態において同一のσを用いる。状態11から20、状態21から30においても同様の操作により算出し、それらの状態に対して同一のσを用いる。 The condition probability P (a i | j) and the state transition probability P DP1,2,3 (j) in the recurrence formula shown in Equation 16 above were calculated by the method described in Non-Patent Document 4. Here, the conditional probability P (a i | j) is a multidimensional normal distribution. Regarding the covariance matrix of P (a i | j), the same one was used in a certain range. For example, when the same covariance matrix is used for 10 states, one covariance matrix is calculated by maximum likelihood estimation from all data distributed to states 1 to 10, and states 1 to 10 The same σ is used in each state. In the states 11 to 20 and the states 21 to 30, calculation is performed by the same operation, and the same σ is used for these states.

続いて、SOINN−DP法に関するパラメタ設定について説明する。孤立単語を用いて予備実験を行い、SOINN−DP法のパラメタを設定した。実験には、男性話者3人が50回ずつ5単語を発話したデータ(1単語につき150個、計750個)を用いた。単語は「こんばんは」、「こんにちは」、「またあした」、「おはよう」、「さようなら」の5単語である。音声特徴量には、20次元MFCC、フレーム長25ms、フレーム周期5msを用いた。一クラスにつき、訓練データを50、テストデータを100として、訓練データ及びテストデータを交換しながら計20回のクロスバリデーション実験を行った。20回のクロスバリデーション実験より、各実験におけるテストデータに対する認識率を求め、その平均値を認識結果とした。テストデータに対して平均認識率が最大となるパラメタを、後述する音素認識実験及び動作認識実験に用いた。   Subsequently, parameter setting related to the SOINN-DP method will be described. Preliminary experiments were performed using isolated words, and parameters of the SONN-DP method were set. The experiment used data in which three male speakers uttered 5 words 50 times each (150 per word, 750 in total). Word is a 5 words of "Good evening", "Hello", "Tomorrow", "Good morning", "good-bye". As the audio feature amount, a 20-dimensional MFCC, a frame length of 25 ms, and a frame period of 5 ms were used. For each class, the training data was 50 and the test data was 100, and a total of 20 cross-validation experiments were performed while exchanging the training data and the test data. From 20 cross-validation experiments, the recognition rate for the test data in each experiment was determined, and the average value was used as the recognition result. A parameter having the maximum average recognition rate with respect to the test data was used for a phoneme recognition experiment and a motion recognition experiment described later.

まず、SOINN−DP法におけるSOINN12のパラメタ設定について説明する。
SOINNと同様にSOINN12においては、ノイズ除去を適切に行うため、λ及びagedeadという2つのパラメタを設定する必要がある。各クラスタはノードとノード間を接続する辺により表現され、このノード及び辺は、入力データに応じて生成・削除を繰り返す。このため、ノイズデータに対してノードを生成した場合には、分類結果が悪化するものの、パラメタλ及びagedeadを適切に設定することによってこれを回避することができる。
First, parameter setting of the SOINN 12 in the SOINN-DP method will be described.
Like SOIN 12, in SOIN 12, it is necessary to set two parameters, λ and age dead , in order to appropriately remove noise. Each cluster is represented by a side connecting the nodes, and the node and the side are repeatedly generated and deleted according to input data. For this reason, when a node is generated for noise data, although the classification result is deteriorated, this can be avoided by appropriately setting the parameters λ and age dead .

λは、ノイズとおぼしきノードを削除する周期を示す。λを小さな値に設定することにより、頻繁にノイズ処理を行うことができるものの、極端に小さくした場合には、実際にはノイズではないノードを誤って削除してしまう。一方、λを極端に大きくした場合には、ノイズの影響により生成されたノードを適切に取り除くことができない。そこで、パラメタ設定のための上記予備実験の結果から、SOINN12への入力回数を30000回に設定し、λ=10000と設定した。即ち、学習中に、ノイズとおぼしきノードの削除を3回行った。   λ indicates a period for deleting noise and a strange node. Although it is possible to frequently perform noise processing by setting λ to a small value, if it is extremely small, a node that is not actually noise is erroneously deleted. On the other hand, when λ is extremely increased, a node generated due to the influence of noise cannot be appropriately removed. Therefore, from the result of the preliminary experiment for parameter setting, the number of inputs to the SOINN 12 was set to 30000 times and λ = 10000. In other words, during learning, noise and ghost nodes were deleted three times.

agedeadは、ノイズなどの影響により誤って生成された辺を削除するために用いる。agedeadを小さな値に設定することにより、辺が削除されやすくなりノイズによる影響を低減させることができるものの、極端に小さくした場合には、頻繁に辺が削除され学習結果が不安定になる。一方、agedeadを極端に大きくした場合には、ノイズの影響により生成された辺を適切に取り除くことができない。SOINN−DP法においては、1つの状態に分配される要素ベクトル数が少数であるため、agedeadを小さくした場合には学習結果が不安定となった。従って、本実施の形態1においては、agedeadを機能させないものとし、辺を削除しないものとした。即ち、agedead=30000とし、学習中に辺の削除は行わないものとした。 The age dead is used to delete an edge that is generated erroneously due to the influence of noise or the like. By setting age dead to a small value, edges can be easily deleted and the influence of noise can be reduced. However, when the value is extremely small, edges are frequently deleted and the learning result becomes unstable. On the other hand, when age dead is made extremely large, the side generated due to the influence of noise cannot be removed appropriately. In the SOIN-DP method, since the number of element vectors distributed to one state is small, the learning result becomes unstable when the age dead is reduced. Therefore, in the first embodiment, the age dead is not allowed to function and the sides are not deleted. That is, it is assumed that age dead = 30000 and no edge is deleted during learning.

以上より、上記予備実験の結果から、SOINN12のパラメタ設定について、λ=10000、agedead=30000と設定した。尚、SOINN12には、パラメタλ及びagedead以外にも、パラメタc、α、α、α、β、γが存在するものの、これらのパラメタについてはSOINNと同じ値を使用した(c=1、α=1/4、α=3/4、α=1/4、β=2/3、γ=3/4)。 As described above, from the result of the preliminary experiment, the parameter setting of the SOINN 12 was set as λ = 10000 and age dead = 30000. Although there are parameters c 1 , α 1 , α 2 , α 3 , β, γ in addition to the parameter λ and age dead , the same values as those of SOIN 12 are used for these parameters (c 1 = 1, α 1 = 1 /4, α 2 = 3/4, α 3 = 1/4, β = 2/3, γ = 3/4).

次に、SOINN−DPのパラメタ設定について説明する。
ここでは、上記数15に示したセグメント数Lについて、その設定方法を説明する。セグメント数Lを大きくした場合には、各状態のSOINN12への入力データが多くなるため、SOINN12の学習精度が向上するものと考えられる。しかし、セグメント数Lを極端に大きな値に設定した場合には、時系列的に離れたデータを1つの状態に入力することになり、時系列データを無視することになってしまう。このため、過度的な時系列データの特徴をモデル化することができず、テストデータに対する認識率の低下を招く。一方、セグメント数Lを極端に小さな値に設定した場合には、SOINN12においてネットワーク(ノード及び辺の集合)が形成されない。ノード集合が生成されない場合、上記数10に示した共分散行列Σを正確に算出することが困難となる。即ち、上記数10に示した共分散行列Σを算出するため、十分な量のデータを1つの状態(SOINN12)に対して入力する必要がある。尚、非特許文献4においては、特徴量の次元数pに対して、少なくともp×4〜5倍以上のデータ数が必要とされ、p個以上が好ましいものとされている。
Next, parameter setting of SOINN-DP will be described.
Here, a setting method for the segment number L shown in the above equation 15 will be described. When the number of segments L is increased, the amount of input data to the SOINN 12 in each state increases, and it is considered that the learning accuracy of the SOINN 12 is improved. However, when the number of segments L is set to an extremely large value, data separated in time series is input to one state, and time series data is ignored. For this reason, excessive time-series data features cannot be modeled, leading to a reduction in the recognition rate for test data. On the other hand, when the number of segments L is set to an extremely small value, a network (a set of nodes and sides) is not formed in the SOINN 12. When a node set is not generated, it is difficult to accurately calculate the covariance matrix Σ shown in Equation 10 above. That is, in order to calculate the covariance matrix Σ shown in Equation 10, it is necessary to input a sufficient amount of data for one state (SOINN 12). In Non-Patent Document 4, the number of data is required to be at least p × 4 to 5 times the dimension number p of the feature quantity, and p 2 or more is preferable.

ここで、訓練データN個をモデルの学習に用いた場合において、各状態に分配される要素ベクトル数が平均N個であるものと仮定する。かかる場合に、1つのSOINN12に対して入力されるデータ集合Z の要素数(データ数DN)を、以下の式によって定義する。
従って、上記数17より、セグメント数Lは以下の式に示す範囲となる。
パラメタ設定のための上記予備実験を通して、上記数18の範囲内における最適なセグメント数Lについて、L≧6p/Nを満たす最小の値として決定した。
また、セグメント数LはストキャスティックDP法における共分散行列を共有する範囲に対応するものと考えられるため、ストキャスティックDP法を用いて同様の予備実験を行った。その結果、ストキャスティックDP法において、共分散行列を共有する範囲について、最大の認識率を得ることができる範囲はセグメント数Lと等しいことを確認することができた。
従って、以下の本実験においては、ストキャスティックDP法における共分散行列を共有する範囲はLとした。尚、セグメント数LによるSOINN−DP法における認識率への寄与については後述する。
Here, when N pieces of training data are used for model learning, it is assumed that the number of element vectors distributed to each state is N on average. In such a case, the number of elements (data number DN) of the data set Z * i input to one SOINN 12 is defined by the following equation.
Therefore, from the above equation 17, the segment number L falls within the range shown in the following equation.
Through the preliminary experiment for parameter setting, the optimum number of segments L within the range of Equation 18 was determined as the minimum value satisfying L ≧ 6 p / N.
Further, since the number of segments L is considered to correspond to the range sharing the covariance matrix in the stochastic DP method, a similar preliminary experiment was performed using the stochastic DP method. As a result, in the stochastic DP method, it was confirmed that the range in which the maximum recognition rate can be obtained for the range sharing the covariance matrix is equal to the number L of segments.
Therefore, in the following experiment, the range sharing the covariance matrix in the stochastic DP method is L. The contribution of the segment number L to the recognition rate in the SOINN-DP method will be described later.

続いて、SOINN−DP法の有効性を確認するため、音素データとして英語音素を対象に認識実験を行った。認識対象として、ked−TIMITデータベース(University of Edinburgh, Center for Speech Technology Research, "CSTR US KED TIMIT"(2002), http://festvox.org/dbs/dbs_kdt.html.)中に含まれる英語文章から抽出した音素39クラスを100個ずつ、計3900個を使用した。図11は、認識対象実験における詳細を示す表である。尚、SOINN−DPのパラメタについて、セグメント数Lは上記数18より、訓練データが40個の場合にはL=6とし、訓練データが80個の場合にはL=3と決定した。   Subsequently, in order to confirm the effectiveness of the SOIN-DP method, a recognition experiment was conducted on English phonemes as phoneme data. English text contained in the med-TIMIT database (University of Edinburgh, Center for Speech Technology Research, "CSTR US KED TIMIT" (2002), http://festvox.org/dbs/dbs_kdt.html.) A total of 3,900 phoneme 39 classes extracted from the above were used. FIG. 11 is a table showing details in the recognition target experiment. As for the parameters of the SOINN-DP, the number of segments L is determined from the above equation 18, L = 6 when the number of training data is 40, and L = 3 when the number of training data is 80.

また、従来手法との比較においても、図11に示したのと同じ条件において実験を行った。HMMの各状態の出力確率は、全共分散行列を持つ混合正規分布とした。HMMについては、最大の認識率を得ることができるパラメタ(状態数及び混合正規分布の混合数)について、それらのパラメタを変化させながら実験を行って最適なパラメタを探索した。そして、そのような最適なパラメタを用いた場合に認識率を算出して、HMMによる認識結果とした。
ストキャスティックDP法については、上記数16に示した非対称型漸化式を用いた場合に加えて、対称型漸化式を用いた場合の実験も行った。対称型漸化式を用いたSOINN−DP法に対して、同様の対称型漸化式を用いたストキャスティックDP法を比較するためのである。尚、対称型漸化式には上記数5に示したC()を条件付確率P(a|j)に交換した式を用いた。また、共分散行列を共有する範囲は、SOINN−DPにおけるセグメント数Lと同様に、訓練データが40個の場合には6状態の間とし、訓練データが80個の場合には3状態の間とした。
In comparison with the conventional method, an experiment was performed under the same conditions as shown in FIG. The output probability of each state of the HMM is a mixed normal distribution having a total covariance matrix. As for the HMM, the parameters that can obtain the maximum recognition rate (number of states and number of mixtures of the mixed normal distribution) were searched for the optimum parameters by performing experiments while changing those parameters. Then, the recognition rate was calculated when such optimal parameters were used, and the result was recognized by the HMM.
For the stochastic DP method, in addition to the case of using the asymmetric recurrence formula shown in the above equation 16, an experiment using the symmetric recurrence formula was also conducted. This is for comparing the stochastic DP method using the same symmetric recursion formula with the SOIN-DP method using the symmetric recursion formula. As the symmetric recurrence formula, a formula obtained by exchanging C () shown in Equation 5 above with a conditional probability P (a i | j) was used. Also, the range sharing the covariance matrix is between 6 states when the training data is 40, and between 3 states when the training data is 80, like the number of segments L in SOINN-DP. It was.

図12は、10回のクロスバリデーション実験の結果から得られた、テストデータに対する平均認識結果を示す表である。図12において、1段目は訓練データが40個の場合(TD40)における平均認識率、2段目は訓練データ数が80個(TD80)の場合の平均認識率をそれぞれ示している。「SO−DP」はSOINN−DP法、「ST−DP(1)」は非対称型漸化式を用いたストキャスティックDP法、「ST−DP(2)」は対称型漸化式を用いたストキャスティックDP法をそれぞれ示している。また、HMMの認識率の右側括弧内は、最大の認識率を得た時のパラメタ(S:状態数、M:混合数)を示している。図12に示すように、SOINN−DP法の平均認識率は、ストキャスティックDP法及びHMMによる平均認識率よりも高く、良好であった。   FIG. 12 is a table showing average recognition results for test data obtained from the results of 10 cross-validation experiments. In FIG. 12, the first row shows the average recognition rate when the number of training data is 40 (TD40), and the second row shows the average recognition rate when the number of training data is 80 (TD80). “SO-DP” uses the SOIN-DP method, “ST-DP (1)” uses the asymmetrical recursion equation, and “ST-DP (2)” uses the symmetric recursion equation. Each of the stochastic DP methods is shown. In the right parenthesis of the recognition rate of the HMM, parameters (S: number of states, M: number of mixtures) when the maximum recognition rate is obtained are shown. As shown in FIG. 12, the average recognition rate of the SOINN-DP method was higher than the average recognition rate by the stochastic DP method and the HMM, which was good.

また、HMMを用いた実験において、比較のため状態数を1から13個まで変動させて実験を行った結果、状態数が3〜7の付近において認識率が最大であったため、実験に使用した音素データに対して最適な状態数は3〜7であるものと推定した。このため、状態数が3〜7において、各状態に割り当てられている出力確率を混合連続確率分布に変更し、混合数を変化させ図11に示した条件において実験を行った。その結果、訓練データが40個の場合には5状態2混合、訓練データが80個の場合には5状態4混合において認識率が最大となった。
さらにまた、ストキャスティックDP法について、非特許文献4に開示された非対称型漸化式を用いた場合よりも、対称型漸化式を用いた場合のほうが高い認識結果となった。これは、対称型漸化式を用いることにより、時系列の伸縮を吸収しやすくなるためだと考えられる。
以上より、音声認識実験の結果、SOINN−DP法では、ストキャスティックDP法及びHMMより得られる最大の認識率に比べて、より良好な認識率を得ることができた。即ち、SOINN−DP法は従来手法と比較して高い認識精度を有するものである。
Moreover, in the experiment using the HMM, the number of states was varied from 1 to 13 for comparison, and as a result, the recognition rate was the maximum in the vicinity of the number of states of 3 to 7, so it was used for the experiment. The optimal number of states for phoneme data was estimated to be 3-7. Therefore, when the number of states was 3 to 7, the output probability assigned to each state was changed to a mixed continuous probability distribution, and the experiment was performed under the conditions shown in FIG. As a result, the recognition rate was maximum in the case of 40 training data in the 5 state 2 mixture, and in the case of 80 training data, the recognition rate was the maximum in the 5 state 4 mixture.
Furthermore, for the stochastic DP method, a higher recognition result was obtained when the symmetric recurrence formula was used than when the asymmetric recurrence formula disclosed in Non-Patent Document 4 was used. This is thought to be because it becomes easier to absorb time-series expansion and contraction by using a symmetric recurrence formula.
From the above, as a result of the speech recognition experiment, the SOIN-DP method was able to obtain a better recognition rate than the maximum recognition rate obtained by the stochastic DP method and the HMM. That is, the SOIN-DP method has higher recognition accuracy than the conventional method.

続いて、SOINN−DP法の有効性を確認するため、動画像より得られる動作データを対象に認識実験を行った。動作データとして、単眼カメラより直接撮像した、人間による7種類の全身運動(動作)を用いた。図13は、実験に用いた7種類の動作内容(動作M1乃至7)を示す画像である。動画のフレーム率は29フレーム毎秒とし、各動作の時間長は最小で110フレーム、最大で440フレームである。入力パターンには個人差を含み、動作の各部分において伸縮性も含まれている。   Subsequently, in order to confirm the effectiveness of the SOIN-DP method, a recognition experiment was performed on motion data obtained from a moving image. As motion data, seven types of whole body motions (motions) by humans taken directly from a monocular camera were used. FIG. 13 is an image showing seven types of operation contents (operations M1 to M7) used in the experiment. The frame rate of the moving image is 29 frames per second, and the time length of each operation is a minimum of 110 frames and a maximum of 440 frames. The input pattern includes individual differences and includes elasticity in each part of the operation.

また、実験においては、モーションキャプチャなどの器具を使用せずに、動画像より動作の特徴を直接取得した。ここで、本実施の形態1においては、位置不変特徴である局所自己相関特徴(大津展之,"パターン認識における特徴抽出に関する数理的研究",vol.818,(1981))を学習に用いることにより、動的特徴を抽出した。実験に用いた動画像の処理手順を以下に示す。
S501:入力動画像を平滑化し、フレーム間における差分を取得する。
S502:差分画像のRGB値を輝度値に変換し、輝度値に対する閾値より、2値化する。
S503:差分画像間において、時間方向の自己相関特徴を抽出する。非特許文献(T. Kobayashi and N. Otsu, "Action and simultaneous multiple persons identification using cubic higher-order local auto-correlation", Proc. International Conference on Pattern Recognition, Vol. 19, pp. 741-744 (2004).)に開示される自己相関特徴について、ここでは、3×3サイズのマスクを用いて自己相関特徴を抽出し、各フレーム間の時系列方向のみ抽出した。尚、中央位置のマスク値には、「動き」の方向性特徴が現れないため、このマスク値については除外した。結果的に、各フレームにおいて計8次元の入力ベクトル(要素ベクトル)を得た。
In the experiment, the features of motion were directly acquired from moving images without using a device such as motion capture. Here, in the first embodiment, a local autocorrelation feature (Nobuyuki Otsu, “Mathematical research on feature extraction in pattern recognition”, vol. 818, (1981)), which is a position invariant feature, is used for learning. Thus, dynamic features were extracted. The moving image processing procedure used in the experiment is shown below.
S501: The input moving image is smoothed and a difference between frames is acquired.
S502: The RGB value of the difference image is converted into a luminance value, and binarized from a threshold value for the luminance value.
S503: Extract autocorrelation features in the time direction between difference images. Non-Patent Literature (T. Kobayashi and N. Otsu, "Action and simultaneous multiple persons identification using cubic higher-order local auto-correlation", Proc. International Conference on Pattern Recognition, Vol. 19, pp. 741-744 (2004) For the autocorrelation feature disclosed in (.), Here, the autocorrelation feature is extracted using a 3 × 3 size mask, and only the time-series direction between the frames is extracted. The mask value at the center position is excluded because the directional feature of “movement” does not appear. As a result, a total of eight-dimensional input vectors (element vectors) were obtained in each frame.

図14は、認識対象実験における詳細を示す表である。SOINN−DPにおけるパラメタは、音素認識実験における場合と同様のパラメタを用いた。ただし、セグメント数Lについては、上記数18より訓練データが10個の場合に、入力次元が8であるためL=5と算出した。
HMMの各状態の出力確率は、全共分散行列を持つ正規分布とした。尚、音素認識実験と同様に、状態数を変化させながら実験を行って最適なパラメタを探索し、そのパラメタを用いた上での認識率を認識結果とした。
また、ストキャスティックDP法については、上記数16に示した非対称型漸化式を用いた場合に加えて、対称型漸化式を用いた場合における実験も行った。尚、ストキャスティックDP法について、共分散行列を共有する範囲は5状態の間とした。
FIG. 14 is a table showing details in the recognition target experiment. The same parameters as in the phoneme recognition experiment were used for the parameters in the SOINN-DP. However, the number of segments L was calculated as L = 5 because the input dimension is 8 when the number of training data is 10 from Equation 18.
The output probability of each state of the HMM is a normal distribution having a total covariance matrix. Similar to the phoneme recognition experiment, the experiment was performed while changing the number of states, the optimum parameter was searched, and the recognition rate using that parameter was used as the recognition result.
For the stochastic DP method, in addition to the case of using the asymmetric recurrence formula shown in the above equation 16, an experiment was also conducted in the case of using the symmetric recurrence formula. In the stochastic DP method, the range in which the covariance matrix is shared is between five states.

図15は、動作データに対する認識結果を示す表である。図15において、「SO−DP」はSOINN−DP法、「ST−DP(1)」は非対称型漸化式を用いたストキャスティックDP法、「ST−DP(2)」は対称型漸化式を用いたストキャスティックDP法をそれぞれ示している。また、HMMの認識率の右側括弧内は、最大の認識率を得た時のパラメタ(S:状態数)を示している。図15に示すように、音素認識実験の場合と同様に、SOINN−DP法の識別率は、ストキャスティックDP法及びHMMによる認識率よりも高く、良好であった。
また、HMMを用いた実験において、比較のため状態数を1から15個まで変動させて実験を行った結果、状態数が11おいて認識率が最大であった。
さらにまた、ストキャスティックDP法について、音素認識実験の場合と同様に、非特許文献4に開示された非対称型漸化式を用いた場合よりも、対称型漸化式を用いた場合のほうが高い認識結果となった。
このように、音素データに比較して状態数及びその出力分布を決定することが困難である動作データに対しても、SOINN−DP法は高い認識精度を有するものである。
FIG. 15 is a table showing recognition results for the operation data. In FIG. 15, “SO-DP” is the SOIN-DP method, “ST-DP (1)” is the stochastic DP method using the asymmetric recurrence formula, and “ST-DP (2)” is the symmetric recurrence method. The stochastic DP method using an equation is shown. In the right parenthesis of the HMM recognition rate, a parameter (S: number of states) when the maximum recognition rate is obtained is shown. As shown in FIG. 15, as in the case of the phoneme recognition experiment, the discrimination rate of the SOIN-DP method is higher than the recognition rate by the stochastic DP method and the HMM, and is good.
Further, in the experiment using the HMM, the number of states was varied from 1 to 15 for comparison, and as a result, the recognition rate was the maximum at 11 states.
Furthermore, for the stochastic DP method, as in the case of the phoneme recognition experiment, the case of using the symmetric type recursion formula is higher than the case of using the asymmetric type recurrence formula disclosed in Non-Patent Document 4. It became a recognition result.
As described above, the SOIN-DP method has high recognition accuracy even for motion data in which it is difficult to determine the number of states and its output distribution compared to phoneme data.

以上より、音素認識実験の場合と同様に、動作認識実験についても、SOINN−DP法では、ストキャスティックDP法及びHMMより得られる最大の認識率に比べて、より良好な認識率を得ることができた。即ち、SOINN−DP法は時系列パターン全体の認識に使用することができ、従来手法と比較して高い認識精度を有するものである。   As described above, as in the case of the phoneme recognition experiment, the motion recognition experiment can obtain a better recognition rate than the maximum recognition rate obtained by the stochastic DP method and the HMM in the SOIN-DP method. did it. That is, the SOIN-DP method can be used for recognition of the entire time series pattern and has higher recognition accuracy than the conventional method.

ここで、音素認識実験及び動作認識実験結果から、SOINN−DP法が、従来手法であるストキャスティックDP法及びHMMより優れている点についてさらに説明する。
まず、SOINN−DP法は、SOINN12を用いて1つの状態を詳細に近似することによって頑健なテンプレートモデルを構築する。これにより、SOINN−DP法は、ストキャスティックDP法と比較して優れた認識率を有しており、時系列データの頑健なモデル化を行うことができる。
そして、SOINN−DP法は、各状態の出力分布をSOINN12によって自動的に決定することができる。また、状態数を標準パターンの時系列数として決定することができるため、状態数を予め決定する必要がない。これにより、時系列データを学習する際に、HMMでは事前に状態数及び状態の出力分布(連続分布の場合には混合数)を決定する必要があるが、SOINN−DP法では不要である。即ち、実験においては、HMMの状態数及び混合数について、認識率が最も高くなる場合の値を採用し、これらの値に基づいて認識結果を得た。SOINN−DP法は、このようなHMMによる認識結果よりも良好であった。従って、SOINN−DP法は、事前に状態数及び出力分布のパラメタを設定せずに、高い認識率を得ることができる。
Here, from the results of the phoneme recognition experiment and the motion recognition experiment, the point that the SOIN-DP method is superior to the conventional stochastic DP method and HMM will be further described.
First, the SOINN-DP method constructs a robust template model by approximating one state in detail using the SOINN 12. Thereby, the SOIN-DP method has an excellent recognition rate as compared with the stochastic DP method, and it is possible to perform robust modeling of time-series data.
In the SOINN-DP method, the output distribution in each state can be automatically determined by the SOINN 12. Moreover, since the number of states can be determined as the number of time series of the standard pattern, it is not necessary to determine the number of states in advance. As a result, when learning time-series data, the HMM needs to determine the number of states and the output distribution of states in advance (the number of mixtures in the case of a continuous distribution), but is not necessary with the SOIN-DP method. That is, in the experiment, values for the highest recognition rate were adopted for the number of HMM states and the number of mixtures, and recognition results were obtained based on these values. The SOINN-DP method was better than the recognition result by such an HMM. Therefore, the SOIN-DP method can obtain a high recognition rate without setting the number of states and the output distribution parameters in advance.

ここで、セグメント数LによるSOINN−DP法の認識率への寄与について説明する。SOINN−DP法のパラメタであるセグメント数Lは、SOINN−DP法の認識性能に影響を与える。このため、セグメント数の変化による認識精度への影響について検証する。
本実施の形態1においては、上記数18に基づいてセグメント数Lを算出する。検証は、図11に示した表と同様の条件下において音素認識実験を行った。1回の実験に用いる1クラスあたりの訓練データは40個とした。また、セグメント数を1〜10まで変化させ、それぞれのセグメント数を用いた場合において、計10回のクロスバリデーション実験を行った。
図16は、検証結果を示す図である。図16に示すように、セグメント数をL=1から増加させるにつれて徐々に認識率が上昇し、L=5において最大認識率(57.04%)を得た。さらにセグメント数を増加させた場合には、認識率は下降した。
一方、予備実験の結果から算出したセグメント数は、訓練パターンが40個の場合に、L=6であり、図16においては、L=6の場合は、全体で3番目に認識率が高いものであった。従って、本実施の形態1において用いたセグメント数の推定方法は妥当なものであり、この推定方法によって適切なセグメント数を決定することができる。
Here, the contribution of the number of segments L to the recognition rate of the SOINN-DP method will be described. The number of segments L, which is a parameter of the SOINN-DP method, affects the recognition performance of the SOINN-DP method. Therefore, the influence on the recognition accuracy due to the change in the number of segments is verified.
In the first embodiment, the number of segments L is calculated based on the above equation 18. For the verification, a phoneme recognition experiment was performed under the same conditions as in the table shown in FIG. The number of training data per class used for one experiment was 40. In addition, when the number of segments was changed from 1 to 10 and each segment number was used, a total of 10 cross-validation experiments were performed.
FIG. 16 is a diagram illustrating a verification result. As shown in FIG. 16, the recognition rate gradually increased as the number of segments was increased from L = 1, and the maximum recognition rate (57.04%) was obtained at L = 5. When the number of segments was further increased, the recognition rate declined.
On the other hand, the number of segments calculated from the results of the preliminary experiment is L = 6 when the number of training patterns is 40, and in FIG. 16, when L = 6, the recognition rate is the third highest overall. Met. Therefore, the method for estimating the number of segments used in the first embodiment is appropriate, and an appropriate number of segments can be determined by this estimation method.

ここで、SOINN−DP法の認識性能に対して、SOINN12による寄与について説明する。
SOINN−DP法では、DPマッチングによって各状態jに対して要素ベクトル群Z を分配する。分配されたZ はSOINN12によって分類され、その分類結果より大域的尤度Pwhole(x|S)及び局所的尤度Pclass(x|Ujk)を算出し、これらの確率値に基づいて尤度C(x,S)を算出する。そこで、SOINN−DP法に加えて、SOINN12を用いない手法を2つ定義し、これらの手法を比較した。SOINN12による学習結果を用いない手法と比較することにより、SOINN12による認識精度への寄与を検証した。SOINN12の学習結果を用いない比較手法として、以下の2つの手法を定義した。
Here, contribution by the SOINN 12 to the recognition performance of the SOINN-DP method will be described.
In the SOIN-DP method, the element vector group Z * j is distributed to each state j by DP matching. Distributed Z * j are classified by SOINN12, global likelihood P whole than the classification result (x i | S j) and local likelihood P class | calculates (x i U jk), these probabilities A likelihood C (x i , S j ) is calculated based on the value. Therefore, in addition to the SOINN-DP method, two methods that do not use the SOINN 12 are defined, and these methods are compared. By comparing with the method that does not use the learning result by SOINN12, the contribution to the recognition accuracy by SOINN12 was verified. The following two methods were defined as comparison methods that did not use the learning results of SOINN12.

手法1:要素ベクトル群Z をSOINN12に入力せず、Z より直接、最尤推定により多次元正規分布P(x|S)を算出した。尤度C(x,S)=log(P(x|S))とし、この尤度C(x,S)を用いた漸化式により入力データの認識を行った。
手法2:要素ベクトル群Z をSOINN12に入力し、SOINN12の分類結果より、Pwhole(x|S)を算出した。ただし、SOINN12のクラスタリング結果より得られるPclass(x|Ujk)については、入力パターンの認識には用いないものとした。即ち、尤度C(x,S)を以下の式に基づいて算出し、α=0とした。
尚、検証実験は図11に示した表と同様の条件下において行い、1回の実験に用いる1クラスあたりの訓練データは80個とし、セグメント数L=3とした。αを0〜1.0まで0.05ずつ変化させながら、それぞれのαを用いた場合について、計10回のクロスバリデーション実験を行った。
Method 1: The element vector group Z * j is not input to the SOIN 12, and a multidimensional normal distribution P (x | S j ) is calculated directly from Z * j by maximum likelihood estimation. The likelihood C (x i , S j ) = log (P (x | S j )) is assumed, and the input data is recognized by a recurrence formula using this likelihood C (x i , S j ).
Method 2: an element vector group Z * j input to SOINN12, from classification result SOINN12, P whole | was calculated (x i S j). However, P class (x i | U jk ) obtained from the clustering result of SOINN 12 is not used for input pattern recognition. That is, the likelihood C (x i , S j ) is calculated based on the following formula, and α = 0.
The verification experiment was performed under the same conditions as in the table shown in FIG. 11. The number of training data per class used for one experiment was 80, and the number of segments L was 3. A total of 10 cross-validation experiments were performed for each α, while changing α from 0 to 1.0 by 0.05.

図17は、[手法1]、[手法2]、SOINN−DP法により得られた検証実験の結果を示す表である。図17に示すように、SOINN−DP法による認識結果は、[手法1]及び[手法2]による認識率を約4%上回っている。従って、SOINN12を用いたことに加えて、さらに、SOINN12の学習結果の内部クラスの情報を用いたSOINN−DP法は、この情報を用いなかった[手法1]及び[手法2]に比べて高い認識率を有するものである。尚、テストデータに対する[手法1]及び[手法2]による認識率はほぼ同程度であった。即ち、SOINN−DPは、SOINN12の学習結果である内部クラスの情報を用いることにより、認識率をより向上させることができる。   FIG. 17 is a table showing the results of verification experiments obtained by [Method 1], [Method 2], and the SOIN-DP method. As shown in FIG. 17, the recognition result by the SOINN-DP method exceeds the recognition rate by [Method 1] and [Method 2] by about 4%. Therefore, in addition to using SOINN12, the SOINN-DP method using the information of the inner class of the learning result of SOINN12 is higher than [Method 1] and [Method 2] which did not use this information. It has a recognition rate. Note that the recognition rates of [Method 1] and [Method 2] for the test data were almost the same. That is, the SOINN-DP can further improve the recognition rate by using the information of the inner class that is the learning result of the SOINN 12.

さらに、内部クラスの情報について、αの変化によるSOINN−DPの認識率への寄与について説明する。図18は、αの変化に対する認識率の変化を示す図である。図18においては、x軸方向がαの値を示し、y軸方向が各々のα値に対応する認識率を示す。図18に示すように、認識率はα=0.45において最大となり、以降低下した。最終的に、認識率はα=1.0において最低となった。α=1.0の状態は、上記数19において右辺の第二項(log(Σcぁss(x)))のみにより尤度を算出することに等しく、内部クラスの情報のみを用いて尤度を算出していることになる。この場合には、各内部クラスを核関数により近似しているため、次元間の相関を多次元正規分布のようにモデル化することができない。このため、各内部クラスによる情報のみを用いて尤度を算出した場合において、テストデータに対する認識率が低下したものと考えられる。
一方、図17に示した結果より、各内部クラスによる情報に加えて、大域的情報(SOINNの全ノード)を併せて用いることによって、SOINN−DP法は認識率を向上させることができた。
また、図18に示すように、α=0.45において最大の認識率を得た。これは、αをデータにフィッティングさせることによって、さらにSOINN−DP法による認識精度を向上させることが可能であることを示している。
Further, regarding the inner class information, the contribution of the change in α to the recognition rate of the SOINN-DP will be described. FIG. 18 is a diagram illustrating a change in recognition rate with respect to a change in α. In FIG. 18, the x-axis direction indicates the value of α, and the y-axis direction indicates the recognition rate corresponding to each α value. As shown in FIG. 18, the recognition rate reached its maximum at α = 0.45 and decreased thereafter. Eventually, the recognition rate was lowest at α = 1.0. The state of α = 1.0 is equivalent to calculating the likelihood only by the second term (log (Σ j P cass (x))) on the right side in the above equation 19, and uses only the information of the inner class. Thus, the likelihood is calculated. In this case, since each inner class is approximated by a kernel function, the correlation between dimensions cannot be modeled like a multidimensional normal distribution. For this reason, when the likelihood is calculated using only the information of each internal class, it is considered that the recognition rate for the test data is lowered.
On the other hand, from the results shown in FIG. 17, the SOIN-DP method was able to improve the recognition rate by using global information (all nodes of SOINN) in addition to the information by each internal class.
Further, as shown in FIG. 18, the maximum recognition rate was obtained at α = 0.45. This indicates that it is possible to further improve the recognition accuracy by the SOIN-DP method by fitting α to data.

尚、本実施の形態1においては、パターン認識装置1がテンプレートモデル生成処理及び認識処理を行うものとして説明したが、本発明はこれに限定されるものではない。例えば、テンプレートモデル生成部10を、自己増殖型ニューラルネットワークを用いてテンプレートモデルを生成するテンプレートモデル生成装置としても使用することができる。また、認識部20を、自己増殖型ニューラルネットワークを用いて認識を行う認識装置としても使用することができる。
また、本実施の形態1において示したパターン認識はこれに限定されず、SOINN−DPは実環境における他の時系列パターンの認識についても適用することができる。
さらにまた、実環境において動作する知能ロボットにSOINN−DPを適用することができる。SOINN−DPを適用することにより、知能ロボットに例えば手話などの動作を認識させることができる。また、逐次的にテンプレートモデルを更新することによって、環境に適応して発達させてゆくことができる。即ち、例えば、人間が英語を徐々に聞き取ることができるようになっていくのと同様に、認知発達機能を実現することができる。
In the first embodiment, the pattern recognition device 1 is described as performing the template model generation process and the recognition process. However, the present invention is not limited to this. For example, the template model generation unit 10 can be used as a template model generation apparatus that generates a template model using a self-propagating neural network. The recognition unit 20 can also be used as a recognition device that performs recognition using a self-propagating neural network.
Moreover, the pattern recognition shown in this Embodiment 1 is not limited to this, and SOIN-DP can be applied also to recognition of other time series patterns in a real environment.
Furthermore, the SOIN-DP can be applied to an intelligent robot that operates in a real environment. By applying the SOIN-DP, it is possible to make the intelligent robot recognize an operation such as sign language. In addition, by sequentially updating the template model, it can be developed to adapt to the environment. That is, for example, the cognitive development function can be realized in the same manner as a human being can gradually hear English.

尚、本実施の形態1においては、テンプレートモデル生成には予め十分な個数の訓練パターンが用意され、バッチ学習としてテンプレートモデルが生成される場合を説明したが本発明はこれに限定されない。即ち、テンプレートモデル生成部10は、逐次的に入力パターンを追加して入力するときに、その逐次的に追加される入力パターンの属するクラスに対応するテンプレートモデルについて、そのテンプレートモデルにおける状態の出力分布を逐次的に追加される入力パターンに応じて更新するようにしてもよい。これにより、追加的に入力される入力パターンを容易に追加学習することができるとともに、事前に多量のデータを必要とせず、逐次的に与えられる少量のデータに基づいて認識精度を向上させてゆくことができる。即ち、テンプレートモデルを少量の訓練パターンを用いて生成した後、オンラインで与えられる教師付きデータを用いて、テンプレートモデルを更新することができる。   In the first embodiment, a case has been described in which a sufficient number of training patterns are prepared in advance for template model generation and a template model is generated as batch learning. However, the present invention is not limited to this. That is, when the template model generation unit 10 sequentially adds and inputs input patterns, the template model corresponding to the class to which the sequentially added input pattern belongs, the state output distribution in the template model May be updated according to the input pattern added sequentially. As a result, additional input patterns can be easily learned, and a large amount of data is not required in advance, and recognition accuracy is improved based on a small amount of data given sequentially. be able to. That is, after a template model is generated using a small amount of training patterns, the template model can be updated using supervised data provided online.

図19は、テンプレートモデルを更新する様子を説明するための図である。図19に示すように、オンラインで追加的に与えられたData1乃至3について、上記同様にしてSOINN−DP法によってマッチング処理が実施された後、教師付きデータより更新対象となるテンプレートモデル(Target Template)を特定することができる。そして、テンプレートモデルにおける各状態(SOINN−1Frame乃至SOINN−3Frame)が、更新前のデータ、及び追加されたデータによって更新される。図20は、SOINN12における更新の様子を説明するための図である。図20に示すように、既にSOINN12に存在しているノードに加えて、追加的に入力されたノードからなるクラス(Class generated by update data)が既存の知識を壊すことなく生成される。図21は、オンライン教師付き学習による検証結果を示す表である。図21に示すように、まずバッチ学習において所定の個数の(10、20、40個)データを用いてテンプレートモデルを生成し、オンラインでデータを追加してテンプレートモデルを更新した場合において、認識率の向上結果を検証した。検証結果より、オンラインでデータを追加してゆくにつれて、認識率が向上していくことが分かる。即ち、オンライン教師付き学習による、時系列モデルの頑健な更新が可能である。   FIG. 19 is a diagram for explaining how the template model is updated. As shown in FIG. 19, after data 1 to 3 additionally provided online are matched by the SOIN-DP method in the same manner as described above, a template model (Target Template) to be updated from supervised data is obtained. ) Can be specified. Then, each state (SOINN-1 Frame to SOIN-3 Frame) in the template model is updated with the data before the update and the added data. FIG. 20 is a diagram for explaining a state of update in the SINN 12. As shown in FIG. 20, in addition to the nodes that already exist in the SOINN 12, a class (Class generated by update data) composed of additionally input nodes is generated without destroying existing knowledge. FIG. 21 is a table showing a verification result by online supervised learning. As shown in FIG. 21, when a template model is first generated using a predetermined number (10, 20, 40) of data in batch learning and the template model is updated by adding data online, the recognition rate The improvement result of was verified. From the verification results, it can be seen that the recognition rate improves as data is added online. That is, the time series model can be robustly updated by online supervised learning.

その他の発明の実施の形態.
以上、本発明をその実施の形態により説明したが、本発明はその趣旨の範囲において種々の変形が可能である。例えばSOINN12に代えて、SOINNに基づくEnhanced−SOINN(以下E−SOINNという。)を使用しても良い。
Other Embodiments of the Invention
As mentioned above, although this invention was demonstrated by the embodiment, this invention can be variously deformed in the range of the meaning. For example, instead of SOINN 12, Enhanced-SOINN (hereinafter referred to as E-SONN) based on SOINN may be used.

E−SOINNはSOINNに比べて、入力パターンの分布に高密度の重なりのあるクラスを分離することができる。そして、分布の重なり領域の検出処理においては、平滑化の手法を導入したことより、SOINNに比べてより安定的に動作することができる。さらに、1層構造であっても効率的にノイズノードを削除することができる。さらにまた、SOINNに比べて、より少ないパラメタで動作するため、処理をより容易に実行することができる。   E-SOIN can separate a high-density overlapping class in the distribution of input patterns compared to SOIN. In addition, in the process of detecting the overlapping region of the distribution, since a smoothing method is introduced, the operation can be performed more stably than the SOIN. Furthermore, noise nodes can be deleted efficiently even with a single-layer structure. Furthermore, since the operation is performed with fewer parameters compared to SOIN, the processing can be executed more easily.

以下にE−SOINNを簡単に説明する。図22は、E−SOINNによる学習処理の処理概要を示すフローチャートである。尚、上述したSOINN12と同様の処理については説明を省略する。まず、図22に示すS601乃至S605については、図5に示したSOINN12と同様の処理を実施する。従って、以下では図22に示すS606からの処理について説明する。   The E-SOINN will be briefly described below. FIG. 22 is a flowchart showing a processing outline of learning processing by E-SOINN. The description of the same processing as that of the above-described SINN 12 is omitted. First, in S601 to S605 shown in FIG. 22, the same processing as that of SOINN 12 shown in FIG. 5 is performed. Therefore, the processing from S606 shown in FIG. 22 will be described below.

S606:辺接続判定手段は、一時記憶部に格納されたノード、ノード密度、ノード間の辺について、第1勝者ノードa1及び第2勝者ノードa2のノード密度に基づいて、第1勝者ノードa1及び第2勝者ノードa2間に辺を接続するか否かを判定し、その結果を一時記憶部に格納する。
S607:一時記憶部に格納されたS606における判定の結果、第1勝者ノードa1及び第2勝者ノードa2間に辺を生成して接続する場合には、辺接続手段は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間に辺を接続し、その結果を一時記憶部に格納する。そして、E−SOINNは、一時記憶部に格納された辺及び辺の年齢について、新しく生成された辺、及び、既にノード間に辺が生成されていた場合にはその辺について、辺の年齢を0に設定しその結果を一時記憶部に格納し、第1勝者ノードa1と直接的に接続される辺の年齢をインクリメントし(1増やす)、その結果を一時記憶部に格納する。
S606: The edge connection determination means determines the first winner node based on the node density of the first winner node a 1 and the second winner node a 2 for the node, node density, and edge between the nodes stored in the temporary storage unit. It is determined whether or not an edge is connected between a 1 and the second winner node a 2 , and the result is stored in the temporary storage unit.
S607: As a result of the determination in S606 stored in the temporary storage unit, when generating and connecting an edge between the first winner node a 1 and the second winner node a 2 , the edge connection means is stored in the temporary storage unit. For the stored nodes and the sides between the nodes, the sides are connected between the first winner node and the second winner node, and the result is stored in the temporary storage unit. Then, E-SOIN calculates the age of the side and the age of the side stored in the temporary storage unit, and the age of the side for the newly generated side and, if the side has already been generated between the nodes. The result is set to 0, the result is stored in the temporary storage unit, the age of the side directly connected to the first winner node a 1 is incremented (increased by 1), and the result is stored in the temporary storage unit.

一方、一時記憶部に格納されたS606における判定の結果、第1勝者ノードa1及び第2勝者ノードa2間に辺を接続しない場合には、S608へと処理を進めるが、既にノード間に辺が生成されていた場合には、辺削除手段は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノードa1及び第2勝者ノードa2間の辺を削除し、その結果を一時記憶部に格納する。
次いで、一時記憶部に格納されたノード及びノード密度のポイント値について、第1勝者ノードa1について、ノード密度算出手段は、一時記憶部に格納された第1勝者ノードa1のノード密度のポイント値を算出しその結果を一時記憶部に格納し、算出され一時記憶部に格納されたノード密度のポイント値を以前までに算出され一時記憶部に格納されたポイント値に加算することで、ノード密度ポイントとして累積し、その結果を一時記憶部に格納する。
次いで、E−SOINNは、一時記憶部に格納された第1勝者ノードa1が第1勝者ノードとなった累積回数Ma1をインクリメントし(1増やす)、その結果を一時記憶部に格納する。
On the other hand, the result of determination in S606 stored in the temporary storage unit, when not connected to edges between the first winning node a 1 and the second winning node a 2, although the process proceeds to S608, already between nodes If the side has been generated, the side deletion means deletes the side between the first winner node a 1 and the second winner node a 2 for the node stored in the temporary storage unit and the side between the nodes, The result is stored in the temporary storage unit.
Next, for the node and node density point values stored in the temporary storage unit, for the first winner node a 1 , the node density calculation means calculates the node density points of the first winner node a 1 stored in the temporary storage unit. By calculating the value and storing the result in the temporary storage unit, the node density point value calculated and stored in the temporary storage unit is added to the point value calculated previously and stored in the temporary storage unit. Accumulate as density points and store the result in a temporary storage.
Next, the E-SOIN increments the cumulative number M a1 that the first winner node a 1 stored in the temporary storage unit becomes the first winner node (increases by 1), and stores the result in the temporary storage unit.

S608:重みベクトル更新手段は、一時記憶部に格納されたノード及びノードの重みベクトルについて、第1勝者ノードa1の重みベクトル及び第1勝者ノードa1の隣接ノードの重みベクトルをそれぞれ入力ベクトルξに更に近づけるように更新し、その結果を一時記憶部に格納する。尚、E−SOINNにおいては、追加学習に対応するため、入力ベクトルの入力回数tに代えて、一時記憶部に格納される第1勝者ノードa1が第1勝者ノードとなった累積回数Ma1を用いる。
S609:E−SOINNは、一時記憶部に格納された辺について、予め設定され一時記憶部に格納された閾値ageを超えた年齢を持つ辺を削除し、その結果を一時記憶部に格納する。
S608: weight vector updating means for weight vector stored nodes and nodes in the temporary storage unit, respectively the input vector the weight vector of the weight vector of the first winning node a 1 and first winning node a 1 of adjacent node ξ The data is updated so as to be closer to, and the result is stored in the temporary storage unit. In E-SOINN, in order to support additional learning, instead of the input vector input count t, the cumulative number M a1 of the first winner node a 1 stored in the temporary storage unit becomes the first winner node. Is used.
S609: E-SOINN, for stored sides in the temporary storage unit, delete the edges with a exceeds a preset threshold age t stored in the temporary storage unit age, and stores the result in the temporary storage unit .

S610:E−SOINNは、一時記憶部に格納された与えられた入力ベクトルξの総数について、与えられた入力ベクトルξの総数が予め設定され一時記憶部に格納されたλの倍数であるか否かを判定し、その結果を一時記憶部に格納する。一時記憶部に格納された判定の結果、入力ベクトルの総数がλの倍数でない場合にはS602へと戻り、次の入力ベクトルξを処理する。一方、入力ベクトルξの総数がλの倍数となった場合には以下の処理を実行する。   S610: E-SOINN indicates whether the total number of input vectors ξ stored in the temporary storage unit is a multiple of λ that is preset and stored in the temporary storage unit. And the result is stored in the temporary storage unit. As a result of the determination stored in the temporary storage unit, if the total number of input vectors is not a multiple of λ, the process returns to S602 to process the next input vector ξ. On the other hand, when the total number of input vectors ξ is a multiple of λ, the following processing is executed.

S611:分布重なり領域検出手段は、一時記憶部に格納されたサブクラスタ及び分布の重なり領域について、上述のS301乃至S305において示したようにしてサブクラスタの境界である分布の重なり領域を検出し、その結果を一時記憶部に格納する。
S612:ノード密度算出手段は、一時記憶部に格納されて累積されたノード密度ポイントを単位入力数あたりの割合として算出しその結果を一時記憶部に格納し、単位入力数あたりのノードのノード密度を算出し、その結果を一時記憶部に格納する。
S613:ノイズノード削除手段は、一時記憶部に格納されたノードについて、ノイズノードと見なしたノードを削除し、その結果を一時記憶部に格納する。尚、S613においてノイズノード削除手段が使用するパラメタc1及びc2はノードをノイズと見なすか否かの判定に使用する。通常、隣接ノード数が2であるノードはノイズではないことが多いため、c1は0に近い値を使用する。また、隣接ノード数が1であるノードはノイズであることが多いため、c2は1に近い値を使用するものとし、これらのパラメタは予め設定され一時記憶部に格納される。
S611: The distribution overlap area detection means detects the overlap area of the distribution that is the boundary of the subcluster as shown in S301 to S305 above for the subcluster and distribution overlap area stored in the temporary storage unit, The result is stored in the temporary storage unit.
S612: The node density calculation means calculates the node density points stored and accumulated in the temporary storage unit as a ratio per unit input number, stores the result in the temporary storage unit, and stores the node density of the node per unit input number. And the result is stored in the temporary storage unit.
S613: The noise node deletion unit deletes a node regarded as a noise node from the nodes stored in the temporary storage unit, and stores the result in the temporary storage unit. Note that the parameters c 1 and c 2 used by the noise node deletion unit in S613 are used to determine whether or not the node is regarded as noise. Normally, a node having two adjacent nodes is often not a noise, and therefore c 1 uses a value close to 0. Further, since a node having the number of adjacent nodes of 1 is often noise, c 2 is assumed to use a value close to 1, and these parameters are set in advance and stored in the temporary storage unit.

S614:E−SOINNは、一時記憶部に格納された与えられた入力ベクトルξの総数について、与えられた入力ベクトルξの総数が予め設定され一時記憶部に格納されたLTの倍数であるか否かを判定し、その結果を一時記憶部に格納する。一時記憶部に格納された判定の結果、入力ベクトルの総数がLTの倍数でない場合にはS602へと戻り、次の入力ベクトルξを処理する。
一方、入力ベクトルξの総数がLTの倍数となった場合には、一時記憶部に格納されたノードをプロトタイプとして出力する。以上の処理を終了した後、学習を停止する。
S614: E-SOINN is the total number of input vectors ξ stored in the temporary storage unit, and whether the total number of input vectors ξ set in advance is a multiple of LT stored in the temporary storage unit. And the result is stored in the temporary storage unit. If the total number of input vectors is not a multiple of LT as a result of the determination stored in the temporary storage unit, the process returns to S602 to process the next input vector ξ.
On the other hand, when the total number of input vectors ξ is a multiple of LT, the node stored in the temporary storage unit is output as a prototype. After completing the above processing, learning is stopped.

ノード密度算出手段は、一時記憶部に格納されたノード及びノード密度について、注目するノードについて、その隣接ノード間の平均距離に基づいて、注目するノードのノード密度を算出し、その結果を一時記憶部に格納する。具体的には、ノード密度ポイント算出部は、例えば一時記憶部に格納される以下の式に基づいてノードiに与えられるノード密度のポイント値pを算出し、その結果を一時記憶部に格納する。尚、ノードiに与えられるポイント値pは、ノードiが第1勝者ノードとなった場合には一時記憶部に格納される以下の式に基づいて算出されるポイント値が与えられるが、ノードiが第1勝者ノードでない場合にはノードiにはポイントは与えられないものとする。
The node density calculation means calculates the node density of the node of interest based on the average distance between adjacent nodes for the node of interest and the node density stored in the temporary storage unit, and temporarily stores the result. Store in the department. Specifically, the node density point calculation unit calculates a node density point value p i given to the node i based on, for example, the following expression stored in the temporary storage unit, and stores the result in the temporary storage unit: To do. The point value p i given to the node i is given a point value calculated based on the following formula stored in the temporary storage unit when the node i becomes the first winner node. If i is not the first winner node, no points are given to node i.

ここで、eはノードiからその隣接ノードまでの平均距離を示し、一時記憶部に格納される以下の式に基づいて算出し、その結果を一時記憶部に格納する。
尚、mは一時記憶部に格納されたノードiの隣接ノードの個数を示し、Wは一時記憶部に格納されたノードiの重みベクトルを示す。
Here, e i represents an average distance from the node i to the adjacent node, is calculated based on the following expression stored in the temporary storage unit, and the result is stored in the temporary storage unit.
Incidentally, m represents the number of neighbor nodes of node i that are stored in the temporary storage unit, W i represents the weight vector of node i that are stored in the temporary storage unit.

ここで、隣接ノードへの平均距離が大きくなる場合には、ノードを含むその領域にはノードが少ないものと考えられ、逆に平均距離が小さくなる場合には、その領域にはノードが多いものと考えられる。従って、ノードの多い領域で第1勝者ノードとなった場合には高いポイントが与えられ、ノードの少ない領域で第1勝者ノードとなった場合には低いポイントが与えられるようにノードの密度のポイント値の算出方法を上述のように構成する。これにより、ノードを含むある程度の範囲の領域におけるノードの密集具合を推定することができるため、ノードの分布が高密度の領域に位置するノードであっても、ノードが第1勝者回数となった回数をノードの密度とするSOINNに比べて、入力ベクトルの入力分布密度により近似した密度となるノード密度ポイントを算出することができる。   Here, when the average distance to the adjacent node is large, it is considered that there are few nodes in the area including the node. Conversely, when the average distance is small, the area has many nodes. it is conceivable that. Therefore, the node density points so that a high point is awarded when the first winner node is reached in a region with many nodes, and a low point is awarded when the first winner node is found in a region with few nodes. The value calculation method is configured as described above. As a result, it is possible to estimate the density of nodes in a certain area including the nodes, so even if the nodes are located in a high-density area, the number of nodes is the first winner. Compared with SOIN where the number of times is the node density, a node density point can be calculated that has a density approximated by the input distribution density of the input vector.

単位ノード密度ポイント算出部は、例えば一時記憶部に格納される以下の式に基づいてノードiの単位入力数あたりのノード密度densityを算出し、その結果を一時記憶部に格納する。
The unit node density point calculation unit calculates the node density density i per unit input number of the node i based on, for example, the following expression stored in the temporary storage unit, and stores the result in the temporary storage unit.

ここで、連続して与えられる入力ベクトルの入力回数を予め設定され一時記憶部に格納される一定の入力回数λごとの区間に分け、各区間においてノードiに与えられたポイントについてその合計を累積ポイントsと定める。尚、入力ベクトルの総入力回数を予め設定され一時記憶部に格納されるLTとする場合に、LT/λを区間の総数nとしその結果を一時記憶部に格納し、nのうち、ノードに与えられたポイントの合計が0以上であった区間の数をNとして算出し、その結果を一時記憶部に格納する(Nとnは必ずしも同じとならない点に注意する)。 Here, the number of inputs of consecutively given input vectors is divided into sections for each predetermined number of inputs λ that are set in advance and stored in the temporary storage unit, and the sum of points given to node i in each section is accumulated. It is defined as point s i . When the total number of input vectors is set to LT that is preset and stored in the temporary storage unit, LT / λ is set to the total number n of sections, and the result is stored in the temporary storage unit. The number of sections in which the total of given points is 0 or more is calculated as N, and the result is stored in the temporary storage unit (note that N and n are not necessarily the same).

累積ポイントsは、例えば一時記憶部に格納される以下の式に基づいて算出し、その結果を一時記憶部に格納する。
ここで、p (j,k)はj番目の区間におけるk番目の入力によってノードiに与えられたポイントを示し、上述のノード密度ポイント算出部により算出され、その結果を一時記憶部に格納する。このように、単位ノード密度ポイント算出部は、一時記憶部に格納されたノードiの密度densityを累積ポイントsの平均として算出し、その結果を一時記憶部に格納する。
The accumulated points s i are calculated based on, for example, the following expression stored in the temporary storage unit, and the result is stored in the temporary storage unit.
Here, p i (j, k) indicates a point given to the node i by the k-th input in the j-th section, is calculated by the node density point calculation unit described above, and the result is stored in the temporary storage unit. To do. As described above, the unit node density point calculation unit calculates the density density i of the node i stored in the temporary storage unit as an average of the accumulated points s i and stores the result in the temporary storage unit.

尚、E−SOINNにおいては追加学習に対応するため、nに代えてNを用いる。これは、追加学習において、以前の学習で生成されたノードにはポイントが与えられないことが多く、nを用いて密度を算出すると、以前学習したノードの密度が次第に低くなってしまうという問題を回避するためである。即ち、nに代えてNを用いてノード密度を算出することで、追加学習を長時間行った場合であっても、追加されるデータが以前学習したノードの近くに入力されない限りは、そのノードの密度を変化させずに保持することができる。これにより、追加学習を長時間実施する場合であっても、ノードのノード密度が相対的に小さくなってしまうことを防ぐことができ、SOINNを含む従来の手法に比べて、入力ベクトルの入力分布密度により近似したノード密度を変化させずに保持して算出することができる。   In E-SOINN, N is used instead of n in order to support additional learning. This is because, in additional learning, points are often not given to nodes generated by previous learning, and when n is used to calculate the density, the previously learned node density gradually decreases. This is to avoid it. That is, by calculating the node density using N instead of n, even if additional learning is performed for a long time, as long as the added data is not input near the previously learned node, that node Can be maintained without changing the density. As a result, even when additional learning is performed for a long time, it is possible to prevent the node density of the node from becoming relatively small, and the input distribution of the input vector compared to the conventional method including SOINN. The node density approximated by the density can be held and calculated without being changed.

分布重なり領域検出手段は、一時記憶部に格納されたノード、ノード間を接続する辺、及びノードの密度について、辺によって接続されるノードの集合であるクラスタを、ノード密度算出手段によって算出されるノード密度に基づいてクラスタの部分集合であるサブクラスタに分割し、その結果を一時記憶部に格納し、サブクラスタの境界である分布の重なり領域を検出し、その結果を一時記憶部に格納する。   The distribution overlap area detection means calculates a cluster, which is a set of nodes connected by the edges, with respect to the nodes stored in the temporary storage unit, the edges connecting the nodes, and the density of the nodes. Based on the node density, it is divided into sub-clusters that are a subset of the cluster, the result is stored in the temporary storage, the overlapping area of the distribution that is the boundary of the sub-cluster is detected, and the result is stored in the temporary storage .

さらに、分布重なり領域検出手段は、一時記憶部に格納されたノード、ノード間を接続する辺、及びノードの密度について、ノード密度算出手段により算出されたノード密度に基づいて、ノード密度が局所的に最大であるノードを探索するノード探索部と、探索したノードに対して、既に他のノードに付与済みのラベルとは異なるラベルを付与する第1のラベル付与部と、第1のラベル付与部によりラベルが付与されなかったノードのうち、そのノードと辺によって接続されるノードについて、第1のラベル付与部によりラベルが付与されたノードのラベルと同じラベルを付与する第2のラベル付与部と、それぞれ異なるラベルが付与されたノード間に辺によって直接的に接続がある場合に、その辺によって接続されるノードの集合であるクラスタをクラスタの部分集合であるサブクラスタに分割するクラスタ分割部と、注目するノード及びその隣接ノードがそれぞれ異なるサブクラスタに属する場合に、その注目するノード及びその隣接ノードを含む領域を、サブクラスタの境界である分布の重なり領域として検出する分布重なり領域検出部を有する。具体的には、一時記憶部に格納されたノード、ノード間を接続する辺、及びノードの密度について、例えば以下のようにしてサブクラスタの境界である分布の重なり領域を検出し、その結果を一時記憶部に格納する。   Furthermore, the distribution overlap area detecting means determines whether the node density is locally determined based on the node density calculated by the node density calculating means for the nodes stored in the temporary storage unit, the sides connecting the nodes, and the node density. A node search unit that searches for a node that is the largest, a first label assignment unit that assigns a label different from labels already assigned to other nodes to the searched node, and a first label assignment unit A second label assigning unit that assigns the same label as the label of the node to which the label is assigned by the first label assigning unit among the nodes to which the label is not given by the first label assigning unit When there is a direct connection between the nodes with different labels, each side is a set of nodes connected by that side. A cluster dividing unit that divides the cluster into sub-clusters that are subsets of the cluster, and when the node of interest and its adjacent nodes belong to different sub-clusters, the region including the node of interest and its adjacent nodes is A distribution overlap area detection unit that detects a distribution overlap area that is a boundary of the distribution overlap area. Specifically, for the nodes stored in the temporary storage unit, the edges connecting the nodes, and the density of the nodes, for example, the overlapping area of the distribution that is the boundary of the sub-cluster is detected as follows, and the result is Store in the temporary storage.

S701:ノード探索部は、一時記憶部に格納されたノード及びノードの密度について、ノード密度算出手段により算出されたノード密度に基づいて、ノード密度が局所的に最大であるノードを探索し、その結果を一時記憶部に格納する。
S702:第1のラベル付与部は、一時記憶部に格納されたノード、及びノードのラベルについて、S701において探索したノードに対して、既に他のノードに付与済みのラベルとは異なるラベルを付与し、その結果を一時記憶部に格納する。
S703:第2のラベル付与部は、一時記憶部に格納されたノード、ノード間を接続する辺、及びノードのラベルについて、S702において第1のラベル付与部によりラベルが付与されなかったノードについて、第1のラベル付与部にラベルが付与されたノードと辺によって接続されるノードについて、第1のラベル付与部によりラベルが付与されたノードのラベルと同じラベルを付与し、その結果を一時記憶部に格納する。即ち、密度が局所的に最大の隣接ノードと同じラベルを付与する。
S704:クラスタ分割部は、一時記憶部に格納されたノード、ノード間を接続する辺、及びノードのラベルについて、一時記憶部に格納された辺によって接続されるノードの集合であるクラスタを、同じラベルが付与されたノードからなるクラスタの部分集合であるサブクラスタに分割し、その結果を一時記憶部に格納する。
S705:分布重なり領域検出部は、一時記憶部に格納されたノード、ノード間を接続する辺、及びノードのラベルについて、注目するノードとその隣接ノードが異なるサブクラスタにそれぞれ属する場合に、その注目するノード及びその隣接ノードを含む領域を、サブクラスタの境界である分布の重なり領域として検出し、その結果を一時記憶部に格納する。
S701: The node search unit searches for a node having a node density that is locally maximum based on the node density calculated by the node density calculation unit for the node and the node density stored in the temporary storage unit, Store the result in the temporary storage.
S702: The first label assigning unit assigns a label different from a label already assigned to another node to the node searched in S701 for the node and the node label stored in the temporary storage unit. The result is stored in the temporary storage unit.
S703: The second label assigning unit is the node stored in the temporary storage unit, the side connecting the nodes, and the label of the node. For the node that has not been given a label by the first label assigning unit in S702, For the node connected by the side and the node to which the label is assigned to the first label giving unit, the same label as the label of the node to which the label is given by the first label giving unit is given, and the result is temporarily stored To store. That is, the same label as the adjacent node having the locally maximum density is assigned.
S704: The cluster dividing unit uses the same cluster, which is a set of nodes connected by the side stored in the temporary storage unit, for the nodes stored in the temporary storage unit, the sides connecting the nodes, and the labels of the nodes. The data is divided into sub-clusters that are a subset of the cluster composed of nodes to which labels are assigned, and the result is stored in the temporary storage unit.
S705: The distributed overlap area detection unit, when the node stored in the temporary storage unit, the side connecting the nodes, and the label of the node belong to different sub-clusters, respectively, A region including a node to be processed and its adjacent nodes is detected as an overlapping region of distribution that is a boundary of sub-clusters, and the result is stored in a temporary storage unit.

辺接続判定手段は、一時記憶部に格納されたノード、ノード密度、及び分布重なり領域について、第1勝者ノード及び第2勝者ノードが分布重なり領域に位置するノードである場合に、第1勝者ノード及び第2勝者ノードのノード密度に基づいて第1勝者ノード及び第2勝者ノード間に辺を接続するか否かを判定し、その結果を一時記憶部に格納する。さらに辺接続判定手段は、一時記憶部に格納されたノード、ノード密度、ノードのサブクラスタについて、ノードが属しているサブクラスタを判定する所属サブクラスタ判定部と、ノードが属するサブクラスタの頂点の密度及びノードの密度に基づいて、第1勝者ノード及び第2勝者ノード間に辺を接続するか否かを判定する辺接続判定部を有する。   The edge connection determination means is a first winner node when the first winner node and the second winner node are nodes located in the distribution overlap region with respect to the node, node density, and distribution overlap region stored in the temporary storage unit. Based on the node density of the second winner node, it is determined whether or not an edge is connected between the first winner node and the second winner node, and the result is stored in the temporary storage unit. Further, the edge connection determination means includes a sub-cluster determination unit that determines a sub-cluster to which the node belongs, and a vertex of the sub-cluster to which the node belongs, for the node, node density, and node sub-cluster stored in the temporary storage unit. An edge connection determination unit that determines whether to connect an edge between the first winner node and the second winner node based on the density and the density of the node.

辺接続手段は、一時記憶部に格納された辺接続判定手段の判定結果に基づいて、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間に辺を接続し、その結果を一時記憶部に格納する。
辺削除手段は、一時記憶部に格納された辺接続判定手段の判定結果に基づいて、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間の辺を削除し、その結果を一時記憶部に格納する。
具体的には、一時記憶部に格納されたノード、ノード密度、ノードのサブクラスタ、及びノード間の辺について、例えば以下のようにして辺接続判定手段は辺を接続するか否かを判定し、辺接続手段及び辺削除手段は辺の生成及び削除処理を実施し、その結果を一時記憶部に格納する。
The edge connecting means is configured to connect the edge between the first winner node and the second winner node with respect to the node stored in the temporary storage section and the edge between the nodes based on the determination result of the edge connection determination means stored in the temporary storage section. And the result is stored in the temporary storage unit.
The edge deleting means is based on the determination result of the edge connection determining means stored in the temporary storage section, and the edge between the first winner node and the second winner node with respect to the nodes stored in the temporary storage section and the edges between the nodes. And the result is stored in the temporary storage unit.
Specifically, for the nodes, node density, node sub-clusters, and edges between nodes stored in the temporary storage unit, for example, the edge connection determination means determines whether to connect edges. The edge connecting means and the edge deleting means perform edge generation and deletion processing, and store the results in the temporary storage unit.

S801:所属サブクラスタ判定部は、一時記憶部に格納されたノード、ノードのサブクラスタについて、第1勝者ノード及び第2勝者ノードが属するサブクラスタをそれぞれ判定し、その結果を一時記憶部に格納する。
S802:一時記憶部に格納されたS801における判定の結果、第1勝者ノード及び第2勝者ノードがどのサブクラスタにも属していない場合、又は、第1勝者ノード及び第2勝者ノードが同じサブクラスタに属している場合には、辺接続手段は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間に辺を生成することによりノード間を接続し、その結果を一時記憶部に格納する。
S803:一時記憶部に格納されたS801における判定の結果、第1勝者ノード及び第2勝者ノードが互いに異なるサブクラスタに属す場合には、辺接続判定部は、一時記憶部に格納されたノード、ノード密度、及びノード間の辺について、ノードが属するサブクラスタの頂点の密度及びノードの密度に基づいて、第1勝者ノード及び第2勝者ノード間に辺を接続するか否かを判定し、その結果を一時記憶部に格納する。
S804:一時記憶部に格納されたS803における辺接続判定部による判定の結果、辺を接続する必要がないと判定した場合には、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間を辺によって接続せず、既にノード間が辺によって接続されていた場合には、辺削除手段は、一時記憶部に格納されたノード及びノード間の辺について、一時記憶部に格納された第1勝者ノード及び第2勝者ノード間の辺を削除し、その結果を一時記憶部に格納する。
S805:一時記憶部に格納されたS803における辺接続判定部による判定の結果、辺を接続する必要があると判定した場合には、辺接続手段は、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間に辺を生成しノード間を接続する。
S801: The belonging sub-cluster determining unit determines the sub-cluster to which the first winner node and the second winner node belong for each of the nodes and node sub-clusters stored in the temporary storage unit, and stores the result in the temporary storage unit. To do.
S802: If the result of determination in S801 stored in the temporary storage unit is that the first winner node and the second winner node do not belong to any subcluster, or the first winner node and the second winner node are the same subcluster The edge connecting means connects the nodes by generating an edge between the first winner node and the second winner node for the node and the edge between the nodes stored in the temporary storage unit. The result is stored in the temporary storage unit.
S803: As a result of the determination in S801 stored in the temporary storage unit, if the first winner node and the second winner node belong to different sub-clusters, the edge connection determination unit is a node stored in the temporary storage unit, For node density and edges between nodes, determine whether to connect edges between the first winner node and the second winner node based on the density of the vertices of the subcluster to which the node belongs and the density of the node, and Store the result in the temporary storage.
S804: If the result of determination by the edge connection determination unit in S803 stored in the temporary storage unit determines that it is not necessary to connect edges, the nodes stored in the temporary storage unit and the edges between the nodes are When the 1 winner node and the second winner node are not connected by an edge and the nodes are already connected by an edge, the edge deleting means is configured to store the node stored in the temporary storage unit and the edge between the nodes. The edge between the first winner node and the second winner node stored in the temporary storage unit is deleted, and the result is stored in the temporary storage unit.
S805: If it is determined that the sides need to be connected as a result of the determination by the side connection determination unit in S803 stored in the temporary storage unit, the side connection unit determines whether the node is stored in the temporary storage unit or between the nodes. Are generated between the first winner node and the second winner node, and the nodes are connected.

ここで、辺接続判定部による判定処理について詳細に説明する。
まず、辺接続判定部は、一時記憶部に格納されたノード及びノード密度について、第1勝者ノードのノード密度densitywin及び第2勝者ノード密度densitysec−winのうち、最小のノード密度mを例えば一時記憶部に格納される以下の式に基いて算出し、その結果を一時記憶部に格納する。
Here, the determination process by the edge connection determination unit will be described in detail.
First, the edge connection determination unit determines the minimum node density m among the node density density win and the second winner node density density sec-win of the first winner node for the node and node density stored in the temporary storage unit, for example. Calculation is performed based on the following expression stored in the temporary storage unit, and the result is stored in the temporary storage unit.

次に、一時記憶部に格納されたノード、ノードのノード密度、及びノードのサブクラスについて、第1勝者ノード及び第2勝者ノードがそれぞれ属するサブクラスタA及びサブクラスタBについて、サブクラスタAの頂点の密度Amax及びサブクラスタBの頂点の密度Bmaxを算出し、その結果を一時記憶部に格納する。尚、サブクラスタに含まれるノードのうち、ノード密度が最大であるノード密度をサブクラスタの頂点の密度とする。 Next, with regard to the nodes stored in the temporary storage unit, the node density of the nodes, and the subclass of the nodes, the subcluster A and the subcluster B to which the first winner node and the second winner node belong respectively, The density A max and the density B max of the vertices of the sub-cluster B are calculated, and the result is stored in the temporary storage unit. Of the nodes included in the subcluster, the node density having the highest node density is defined as the density of the vertices of the subcluster.

そして、一時記憶部に格納されたノードが属するサブクラスタの頂点の密度Amax及びBmax、及びノードの密度mについて、mがαmaxより小さく、かつ、mがαmaxより小さいか否かを判定し、その結果を一時記憶部に格納する。即ち、一時記憶部に格納される以下の不等式を満足するか否かを判定し、その結果を一時記憶部に格納する。
Then, regarding the density A max and B max of the vertices of the subcluster to which the node stored in the temporary storage unit belongs, and the density m of the node, m is smaller than α A A max and m is smaller than α B B max. And the result is stored in the temporary storage unit. That is, it is determined whether or not the following inequality stored in the temporary storage unit is satisfied, and the result is stored in the temporary storage unit.

判定の結果、mがαmaxより小さく、かつ、mがαmaxより小さい場合には、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間には辺は不要であると判定し、その結果を一時記憶部に格納する。
一方、判定の結果、mがαmax以上、または、mがαmax以上である場合には、一時記憶部に格納されたノード及びノード間の辺について、第1勝者ノード及び第2勝者ノード間に辺は必要であると判定し、その結果を一時記憶部に格納する。
As a result of the determination, when m is smaller than α A A max and m is smaller than α B B max , the first winner node and the second winner are determined for the node and the edge between the nodes stored in the temporary storage unit. It is determined that no edge is required between the nodes, and the result is stored in the temporary storage unit.
On the other hand, as a result of the determination, if m is greater than or equal to α A A max or m is greater than or equal to α B B max , the first winner node and the first It is determined that an edge is necessary between the two winner nodes, and the result is stored in the temporary storage unit.

このように、第1勝者ノード及び第2勝者ノードの最小ノード密度mを、第1勝者ノード及び第2勝者ノードをそれぞれ含むサブクラスタの平均的なノード密度と比較することで、第1勝者ノード及び第2勝者ノードを含む領域におけるノード密度の凹凸の大きさを判定することができる。即ち、サブクラスタA及びサブクラスタBの間に存在する分布の谷間のノード密度mが、閾値αmax又はαmaxより大きな場合には、ノード密度の形状は小さな凹凸であると判定することができる。 Thus, by comparing the minimum node density m of the first winner node and the second winner node with the average node density of the sub-cluster including the first winner node and the second winner node, respectively, the first winner node And the size of the unevenness of the node density in the region including the second winner node can be determined. That is, when the node density m between the valleys of the distribution existing between the sub-cluster A and the sub-cluster B is larger than the threshold value α A A max or α B B max , the node density shape is determined to be small unevenness. can do.

ここで、α及びαは一時記憶部に格納される以下の式に基づいて算出し、その結果を一時記憶部に格納する。尚、αについてもαと同様にして算出することができるためここでは説明を省略する。
i) Amax/mean−1≦1の場合には、α=0.0とする。
ii) 1<Amax/mean−1≦2の場合には、α=0.5とする。
iii) 2<Amax/mean−1の場合には、α=1.0とする。
Here, α A and α B are calculated based on the following expressions stored in the temporary storage unit, and the results are stored in the temporary storage unit. Since α B can be calculated in the same manner as α A , description thereof is omitted here.
i) When A max / mean A −1 ≦ 1, α A = 0.0.
ii) When 1 <A max / mean A −1 ≦ 2, α A = 0.5.
iii) If 2 <A max / mean A -1, then α A = 1.0.

max/meanの値が1以下となるi)の場合には、Amaxとmeanの値は同程度であり、密度の凹凸はノイズの影響によるものと判断する。そして、αの値を0.0とすることで、サブクラスタが統合されるようにする。
また、Amax/meanの値が2を超えるiii)の場合には、Amaxはmeanに比べて十分大きく、明らかな密度の凹凸が存在するものと判断する。そして、αの値を1.0とすることで、サブクラスタが分離されるようにする。
そして、Amax/meanの値が上述した場合以外となる i i)の場合には、αの値を0.5とすることで、密度の凹凸の大きさに応じてサブクラスタが統合又は分離されるようにする。
In the case of i) where the value of A max / mean A is 1 or less, the values of A max and mean A are similar, and it is determined that the unevenness in density is due to the influence of noise. Then, the sub-cluster is integrated by setting the value of α to 0.0.
When the value of A max / mean A exceeds iii), it is determined that A max is sufficiently larger than mean A and that there are irregularities with clear density. Then, the sub-cluster is separated by setting the value of α to 1.0.
Then, in the case of ii) where the value of A max / mean A is other than the case described above, by setting the value of α to 0.5, the sub-clusters are integrated or separated according to the size of the density unevenness. To be.

尚、meanはサブクラスタAに属すノードiのノード密度densityの平均値を示し、NをサブクラスタAに属するノードの数として、一時記憶部に格納される以下の式に基づいて算出し、その結果を一時記憶部に格納する。
Here, mean A indicates the average value of the node density density i of the node i belonging to the sub-cluster A, and N A is calculated based on the following formula stored in the temporary storage unit, where N A is the number of nodes belonging to the sub-cluster A. The result is stored in the temporary storage unit.

このように、サブクラスタへの分離を行う際に、サブクラスタに含まれるノード密度の凹凸の程度を判定し、ある基準を満たした2つのサブクラスタを1つに統合することで、分布の重なり領域の検出におけるサブクラスタの分けすぎによる不安定化を防止することができる。例えば、ノイズや学習サンプルが少ないことが原因で、密度の分布に多くの細かい凹凸が形成されることがある。このような場合に、第1勝者ノード及び第2勝者ノードがサブクラスタA及びBの間にある分布の重なり領域に位置する場合に、ノード間の接続を行う際にある基準を満たした2つのサブクラスタを1つに統合することで、密度の分布に多くの細かい凹凸が含まれる場合であっても平滑化することができる。   In this way, when separating into sub-clusters, the degree of unevenness of the node density included in the sub-cluster is determined, and two sub-clusters that satisfy a certain standard are integrated into one, thereby overlapping the distribution. It is possible to prevent instability due to excessive division of sub-clusters in area detection. For example, many fine irregularities may be formed in the density distribution due to a small amount of noise and learning samples. In such a case, when the first winner node and the second winner node are located in the overlapping region of the distribution between the sub-clusters A and B, the two that satisfy certain criteria when connecting between the nodes By integrating the sub-clusters into one, smoothing can be achieved even when the density distribution includes many fine irregularities.

ノイズノード削除手段は、一時記憶部に格納されたノード、ノード密度、ノード間の辺、隣接ノードの個数について、注目するノードについて、ノード密度算出手段により算出されるノード密度及び注目するノードの隣接ノードの個数に基づいて、注目するノードを削除し、その結果を一時記憶部に格納する。さらにノイズノード削除手段は、一時記憶部に格納されたノード、ノード密度、ノード間の辺、隣接ノードの個数について、注目するノードのノード密度を所定の閾値と比較するノード密度比較部と、注目するノードの隣接ノードの個数を算出する隣接ノード数算出部と、注目するノードをノイズノードとみなして削除するノイズノード削除部を有する。具体的には、例えば以下のようにして一時記憶部に格納されたノード、ノード密度、ノード間の辺、隣接ノードの個数について、ノード密度及び注目するノードの隣接ノードの個数に基づいて、注目するノードを削除し、その結果を一時記憶部に格納する。   The noise node deletion unit is configured to determine the node density calculated by the node density calculation unit and the adjacent node of the target node with respect to the node, the node density, the edge between the nodes, and the number of adjacent nodes stored in the temporary storage unit. Based on the number of nodes, the node of interest is deleted, and the result is stored in the temporary storage unit. Further, the noise node deletion means includes a node density comparison unit that compares the node density of the node of interest with a predetermined threshold with respect to the nodes, node density, sides between nodes, and the number of adjacent nodes stored in the temporary storage unit; An adjacent node number calculation unit that calculates the number of adjacent nodes of the node to be processed, and a noise node deletion unit that deletes the node of interest as a noise node. Specifically, for example, the nodes, the node density, the sides between the nodes, and the number of adjacent nodes stored in the temporary storage unit as described below are based on the node density and the number of adjacent nodes of the target node. The node to be deleted is deleted, and the result is stored in the temporary storage unit.

ノイズノード削除手段は、一時記憶部に格納されたノード、ノード間の辺、隣接ノードの個数について、注目するノードiについて、隣接ノード数算出部によりその隣接ノードの個数を算出し、その結果を一時記憶部に格納する。そして、一時記憶部に格納された隣接ノードの個数に応じて、以下の処理を実施する。
i) 一時記憶部に格納された隣接ノード数が2の場合、ノード密度比較部はノードiのノード密度densityを例えば一時記憶部に格納される以下の式に基づいて算出する閾値と比較し、その結果を一時記憶部に格納する。
一時記憶部に格納された比較結果について、ノード密度densityが閾値より小さい場合には、ノイズノード削除部は、一時記憶部に格納されたノードについて、ノードを削除し、その結果を一時記憶部に格納する。
The noise node deletion means calculates the number of adjacent nodes by the adjacent node number calculation unit for the node i of interest with respect to the nodes stored in the temporary storage unit, the sides between the nodes, and the number of adjacent nodes. Store in the temporary storage. Then, the following processing is performed according to the number of adjacent nodes stored in the temporary storage unit.
i) When the number of adjacent nodes stored in the temporary storage unit is 2, the node density comparison unit compares the node density density i of the node i with a threshold value calculated based on the following formula stored in the temporary storage unit, for example. The result is stored in the temporary storage unit.
For the comparison result stored in the temporary storage unit, when the node density density i is smaller than the threshold, the noise node deletion unit deletes the node for the node stored in the temporary storage unit, and the result is stored in the temporary storage unit. To store.

ii) 一時記憶部に格納された隣接ノード数が1の場合、ノード密度比較部はノードiのノード密度densityを例えば一時記憶部に格納される以下の式に基づいて算出する閾値と比較し、その結果を一時記憶部に格納する。
一時記憶部に格納された比較の結果について、ノード密度densityが閾値より小さい場合には、ノイズノード削除部は、一時記憶部に格納されたノードについて、ノードを削除し、その結果を一時記憶部に格納する。
ii) When the number of adjacent nodes stored in the temporary storage unit is 1, the node density comparison unit compares the node density density i of the node i with, for example, a threshold value calculated based on the following formula stored in the temporary storage unit. The result is stored in the temporary storage unit.
If the node density density i is smaller than the threshold for the comparison result stored in the temporary storage unit, the noise node deletion unit deletes the node for the node stored in the temporary storage unit, and temporarily stores the result. Store in the department.

iii) 一時記憶部に格納された隣接ノード数について、隣接ノードを持たない場合、ノイズノード削除部は、一時記憶部に格納されたノードについて、ノードを削除し、その結果を一時記憶部に格納する。
ここで、予め設定され一時記憶部に格納される所定のパラメタc1及びc2を調整することで、ノイズノード削除手段によるノイズノードの削除の振る舞いを調整することができる。
iii) Regarding the number of adjacent nodes stored in the temporary storage unit, when there is no adjacent node, the noise node deletion unit deletes the node for the node stored in the temporary storage unit, and stores the result in the temporary storage unit To do.
Here, by adjusting predetermined parameters c 1 and c 2 that are set in advance and stored in the temporary storage unit, it is possible to adjust the behavior of noise node deletion by the noise node deletion unit.

本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは当然である。この場合、記録媒体から読み出されたプログラムコード自体が上述の実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   An object of the present invention is to supply a recording medium (or storage medium) that records a program code of software that realizes the functions of the above-described embodiments to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus. Of course, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基き、コンピュータ上で稼動しているオペレーティングシステム(OS)などが実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合も当然含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. Of course, a case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基き、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって上述した実施形態の機能が実現される場合も当然含まれる。本発明を上記記録媒体に適用する場合、その記録媒体には、上述したフローチャートに対応するプログラムコードが格納されることになる。   Further, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. Naturally, a case where the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is included. When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明を実施するための機能ブロックを示す図である。It is a figure which shows the functional block for implementing this invention. 従来手法であるSOINNによる学習処理の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the learning process by SOIN which is a conventional method. 従来手法であるSOINNに対して入力した人工データセットを示す図である。It is a figure which shows the artificial data set input with respect to SOINN which is a conventional method. 人工データセットに対するSOINNの出力結果を示す図である。It is a figure which shows the output result of SOINN with respect to an artificial data set. 本実施形態に係るSOINN12による学習処理の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the learning process by SOINN12 which concerns on this embodiment. 本実施形態に係るSOINN12に存在する複数の内部クラスを示す図である。It is a figure which shows the some internal class which exists in SOIN12 which concerns on this embodiment. 本実施形態に係るパターン認識装置のシステム構成を示す図である。It is a figure which shows the system configuration | structure of the pattern recognition apparatus which concerns on this embodiment. パターン認識装置によるテンプレートモデル生成処理の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the template model production | generation process by a pattern recognition apparatus. 訓練パターンをSOINN12へと入力するようすを示す図である。It is a figure which shows making it input a training pattern into SOINN12. パターン認識装置による認識処理の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the recognition process by a pattern recognition apparatus. 音素認識実験における実験条件を示す表である。It is a table | surface which shows the experimental condition in a phoneme recognition experiment. 音素認識実験における実験結果を示す表である。It is a table | surface which shows the experimental result in a phoneme recognition experiment. 動作実験における動作内容を示す画像である。It is an image which shows the operation | movement content in operation | movement experiment. 動作認識実験における実験条件を示す表である。It is a table | surface which shows the experimental condition in an action recognition experiment. 動作認識実験における実験結果を示す表である。It is a table | surface which shows the experimental result in a motion recognition experiment. セグメント数に対する認識率の変化を示す図である。It is a figure which shows the change of the recognition rate with respect to the number of segments. SOINN12を用いない手法との比較結果を示す表である。It is a table | surface which shows the comparison result with the method which does not use SOINN12. 大域的尤度及び局所的尤度の反映具合による認識率の変化を示す図である。It is a figure which shows the change of the recognition rate by the reflection condition of global likelihood and local likelihood. テンプレートモデルを更新する様子を説明するための図である。It is a figure for demonstrating a mode that a template model is updated. SOINN12における更新の様子を説明するための図である。It is a figure for demonstrating the mode of the update in SOINN12. オンライン教師付き学習による検証結果を示す表である。It is a table | surface which shows the verification result by online supervised learning. 従来手法であるE―SOINNによる学習処理の処理概要を示すフローチャートである。It is a flowchart which shows the process outline | summary of the learning process by E-SOIN which is a conventional method.

符号の説明Explanation of symbols

1 パターン認識装置
10 テンプレートモデル生成部
11 標準パターン選択部
12 SOINN
121 クラス間ノード挿入部
122 辺削除部
123 ノード削除部
124 重みベクトル更新部
20 認識部
21 尤度算出部
211 大域的尤度算出部
212 局所的尤度算出部
31 訓練用パターンDB
32 テンプレートモデル学習結果DB
40 コンピュータ
41 CPU
42 ROM
43 RAM
44 バス
45 入出力インターフェイス
46 入力部
47 出力部
48 記憶部
49 通信部
50 ドライブ
501 磁気ディスク
502 光ディスク
503 フレキシブルディスク
504 半導体メモリ
DESCRIPTION OF SYMBOLS 1 Pattern recognition apparatus 10 Template model production | generation part 11 Standard pattern selection part 12 SOIN
121 Inter-class node insertion unit 122 Edge deletion unit 123 Node deletion unit 124 Weight vector update unit 20 Recognition unit 21 Likelihood calculation unit 211 Global likelihood calculation unit 212 Local likelihood calculation unit 31 Training pattern DB
32 Template model learning result DB
40 Computer 41 CPU
42 ROM
43 RAM
44 bus 45 input / output interface 46 input unit 47 output unit 48 storage unit 49 communication unit 50 drive 501 magnetic disk 502 optical disk 503 flexible disk 504 semiconductor memory

Claims (27)

入力パターンの一部又は全部を入力ベクトルとしてニューラルネットワークに順次入力し、当該入力ベクトル、及び当該ニューラルネットワークに配置される多次元ベクトルで記述されるノードに基づいて、当該ノードを自動的に増加させる自己増殖型ニューラルネットワークを用いて、
前記入力パターンの特徴量に応じたテンプレートモデルを生成するテンプレートモデル生成部と、
生成された前記テンプレートモデルと前記入力パターンをマッチングして当該入力パターンを認識する認識部とを有する
ことを特徴とするパターン認識装置。
A part or all of the input pattern is sequentially input to the neural network as an input vector, and the number of nodes is automatically increased based on the input vector and nodes described by multidimensional vectors arranged in the neural network. Using a self-propagating neural network,
A template model generation unit that generates a template model according to the feature amount of the input pattern;
A pattern recognition apparatus comprising: a recognition unit that recognizes an input pattern by matching the generated template model and the input pattern.
前記認識部は、
前記ノードに基づいて、前記テンプレートモデルにおける状態の出力分布を算出する尤度算出部を有し、
算出された前記テンプレートモデルにおける状態の出力分布を用いて、前記テンプレートモデルと前記入力パターンとの一致度を算出する
ことを特徴とする請求項1記載のパターン認識装置。
The recognition unit
A likelihood calculating unit for calculating an output distribution of states in the template model based on the nodes;
The pattern recognition apparatus according to claim 1, wherein the degree of coincidence between the template model and the input pattern is calculated using the calculated output distribution of the state in the template model.
前記尤度算出部は、
前記自己増殖型ニューラルネットワークに配置される全てのノードに基づいて、大域的尤度を算出する大域的尤度算出部を有し、
前記大域的尤度から前記テンプレートモデルにおける状態の出力分布を算出する
ことを特徴とする請求項2記載のパターン認識装置。
The likelihood calculating unit
Based on all nodes arranged in the self-propagating neural network, a global likelihood calculating unit that calculates a global likelihood,
The pattern recognition apparatus according to claim 2, wherein an output distribution of states in the template model is calculated from the global likelihood.
前記尤度算出部は、
辺によって接続されたノードからなるクラスタについて、当該クラスタに属するノードに基づいて、局所的尤度を算出する局所的尤度算出部を有し、
前記局所的尤度から前記テンプレートモデルにおける状態の出力分布を算出する
ことを特徴とする請求項2記載のパターン認識装置。
The likelihood calculating unit
For a cluster composed of nodes connected by edges, a local likelihood calculation unit that calculates a local likelihood based on nodes belonging to the cluster,
The pattern recognition apparatus according to claim 2, wherein an output distribution of states in the template model is calculated from the local likelihood.
前記尤度算出部は、
前記自己増殖型ニューラルネットワークに配置される全てのノードに基づいて、大域的尤度を算出する大域的尤度算出部と、
辺によって接続されたノードからなるクラスタについて、当該クラスタに属するノードに基づいて、局所的尤度を算出する局所的尤度算出部とを有し、
前記大域的尤度及び/又は前記局所的尤度から前記テンプレートモデルにおける状態の出力分布を算出する
ことを特徴とする請求項2記載のパターン認識装置。
The likelihood calculating unit
Based on all nodes arranged in the self-propagating neural network, a global likelihood calculating unit for calculating a global likelihood;
A local likelihood calculator that calculates a local likelihood based on a node belonging to the cluster for a cluster composed of nodes connected by edges;
The pattern recognition apparatus according to claim 2, wherein an output distribution of states in the template model is calculated from the global likelihood and / or the local likelihood.
前記テンプレートモデル生成部は、
前記入力パターン間のマッチングにより、当該入力パターンが属するクラスの標準パターンを選択する標準パターン選択部を有し、
前記入力パターンの大きさを前記標準パターンの大きさに正規化して、前記標準パターンの各フレームに対応する各前記入力パターンの一部又は全部を、前記テンプレートモデルにおける各状態に対応させる
ことを特徴とする請求項1記載のパターン認識装置。
The template model generation unit
A standard pattern selection unit that selects a standard pattern of a class to which the input pattern belongs by matching between the input patterns;
The size of the input pattern is normalized to the size of the standard pattern, and a part or all of each input pattern corresponding to each frame of the standard pattern is made to correspond to each state in the template model. The pattern recognition apparatus according to claim 1.
前記テンプレートモデル生成部は、
前記テンプレートモデルにおける各状態に対応させた各前記入力パターンの一部又は全部からなる要素の集合について、前記入力パターンの入力パターン数及び当該入力パターンの特徴量の次元数に基づいて、当該要素集合を前記自己増殖型ニューラルネットワークに入力する
ことを特徴とする請求項6記載のパターン認識装置。
The template model generation unit
For a set of elements consisting of a part or all of each input pattern corresponding to each state in the template model, the element set based on the number of input patterns of the input pattern and the number of dimensions of the feature quantity of the input pattern The pattern recognition apparatus according to claim 6, wherein a self-propagating neural network is input.
前記テンプレートモデル生成部は、
逐次的に入力パターンを追加して入力するときに、当該逐次的に追加される入力パターンの属するクラスに対応する前記テンプレートモデルについて、当該テンプレートモデルにおける状態の出力分布を前記逐次的に追加される入力パターンに応じて更新する
ことを特徴とする請求項1記載のパターン認識装置。
The template model generation unit
When the input pattern is sequentially added and input, for the template model corresponding to the class to which the sequentially added input pattern belongs, the output distribution of the state in the template model is added sequentially. The pattern recognition apparatus according to claim 1, wherein the pattern recognition apparatus is updated according to an input pattern.
DPマッチング法を用いて前記マッチング処理を行う
ことを特徴とする請求項1乃至6記載のパターン認識装置。
The pattern recognition apparatus according to claim 1, wherein the matching process is performed using a DP matching method.
前記自己増殖型ニューラルネットワークは、
入力される前記入力ベクトルに最も近い重みベクトルを持つノードと2番目に近い重みベクトルを持つノードの間に辺を接続したとき、
注目するノードと他のノード間の距離に基づいて算出される当該注目するノードの類似度閾値、及び前記入力ベクトルと当該注目するノード間の距離に基づいて、前記入力ベクトルをノードとして挿入するクラス間ノード挿入部と、
前記入力ベクトルに最も近いノードに対応する重みベクトル及び当該ノードと辺によって直接的に接続されるノードに対応する重みベクトルをそれぞれ前記入力ベクトルに更に近づけるように更新する重みベクトル更新部とを有する
ことを特徴とする請求項1記載のパターン認識装置。
The self-propagating neural network is
When an edge is connected between a node having a weight vector closest to the input vector and a node having a second closest weight vector,
Class that inserts the input vector as a node based on the similarity threshold of the node of interest calculated based on the distance between the node of interest and another node, and the distance between the input vector and the node of interest Internode insertion part,
A weight vector updating unit that updates a weight vector corresponding to a node closest to the input vector and a weight vector corresponding to a node directly connected to the node by an edge so as to be closer to the input vector. The pattern recognition apparatus according to claim 1.
前記クラス間ノード挿入部は、
入力される前記入力ベクトルに最も近い重みベクトルを持つノードを第1勝者ノードとし、2番目に近い重みベクトルを持つノードを第2勝者ノードとし、当該第1勝者ノード及び当該第2勝者ノードの間に辺を接続したとき、
注目するノードについて、当該注目するノードと辺によって直接的に接続されるノードが存在する場合には、当該直接的に接続されるノードのうち当該注目するノードからの距離が最大であるノード間の距離を前記類似度閾値とし、当該注目するノードと辺によって直接的に接続されるノードが存在しない場合には、当該注目するノードからの距離が最小であるノード間の距離を前記類似度閾値として算出する類似度閾値算出部と、
前記入力ベクトルと前記第1勝者ノード間の距離が当該第1勝者ノードの類似度閾値より大きいか否か、及び、前記入力ベクトルと前記第2勝者ノード間の距離が当該第2勝者ノードの類似度閾値より大きいか否かを判定する類似度閾値判定部と、
類似度閾値判定結果に基づいて、前記入力ベクトルをノードとして当該入力ベクトルと同じ位置に挿入するノード挿入部とを有する
ことを特徴とする請求項10記載のパターン認識装置。
The inter-class node insertion unit is
A node having a weight vector closest to the input vector to be inputted is a first winner node, a node having a weight vector closest to the second is a second winner node, and between the first winner node and the second winner node When the side is connected to
When there is a node that is directly connected to the target node by an edge with respect to the target node, among the directly connected nodes, the node having the maximum distance from the target node When the distance is the similarity threshold and there is no node directly connected to the node of interest by the side, the distance between the nodes having the smallest distance from the node of interest is the similarity threshold. A similarity threshold calculation unit to calculate,
Whether the distance between the input vector and the first winner node is greater than the similarity threshold of the first winner node, and the distance between the input vector and the second winner node is similar to the second winner node A similarity threshold determination unit that determines whether or not it is greater than the degree threshold,
The pattern recognition apparatus according to claim 10, further comprising: a node insertion unit that inserts the input vector as a node at the same position as the input vector based on a similarity threshold determination result.
前記自己増殖型ニューラルネットワークは、
前記辺に対応付けられる辺の年齢に基づいて、当該辺を削除する辺削除部と、
注目するノードについて、当該注目するノードに直接的に接続される辺の本数に基づいて、当該注目するノードを削除するノード削除部とを更に有する
ことを特徴とする請求項10記載のパターン認識装置。
The self-propagating neural network is
Based on the age of the side associated with the side, a side deletion unit that deletes the side,
The pattern recognition device according to claim 10, further comprising: a node deletion unit that deletes the node of interest based on the number of sides directly connected to the node of interest, based on the number of sides directly connected to the node of interest. .
前記自己増殖型ニューラルネットワークは1層構造である
ことを特徴とする請求項1記載のパターン認識装置。
The pattern recognition apparatus according to claim 1, wherein the self-propagating neural network has a one-layer structure.
入力パターンの一部又は全部を入力ベクトルとしてニューラルネットワークに順次入力し、当該入力ベクトル、及び当該ニューラルネットワークに配置される多次元ベクトルで記述されるノードに基づいて、当該ノードを自動的に増加させる自己増殖型ニューラルネットワークを用いて、
前記入力パターンの特徴量に応じたテンプレートモデルを生成するテンプレートモデル生成ステップと、
生成された前記テンプレートモデルと前記入力パターンをマッチングして当該入力パターンを認識する認識ステップとを有する
ことを特徴とするパターン認識方法。
A part or all of the input pattern is sequentially input to the neural network as an input vector, and the number of nodes is automatically increased based on the input vector and nodes described by multidimensional vectors arranged in the neural network. Using a self-propagating neural network,
A template model generation step for generating a template model according to the feature amount of the input pattern;
A pattern recognition method comprising: a recognition step of recognizing the input pattern by matching the generated template model and the input pattern.
前記認識ステップは、
前記ノードに基づいて、前記テンプレートモデルにおける状態の出力分布を算出する尤度算出ステップを有し、
算出された前記テンプレートモデルにおける状態の出力分布を用いて、前記テンプレートモデルと前記入力パターンとの一致度を算出する
ことを特徴とする請求項14記載のパターン認識方法。
The recognition step includes
A likelihood calculating step of calculating an output distribution of states in the template model based on the nodes;
The pattern recognition method according to claim 14, wherein the degree of coincidence between the template model and the input pattern is calculated using the calculated output distribution of the state in the template model.
前記尤度算出ステップは、
前記自己増殖型ニューラルネットワークに配置される全てのノードに基づいて、大域的尤度を算出する大域的尤度算出ステップを有し、
前記大域的尤度から前記テンプレートモデルにおける状態の出力分布を算出する
ことを特徴とする請求項15記載のパターン認識方法。
The likelihood calculating step includes:
A global likelihood calculating step for calculating a global likelihood based on all nodes arranged in the self-propagating neural network;
The pattern recognition method according to claim 15, wherein an output distribution of states in the template model is calculated from the global likelihood.
前記尤度算出ステップは、
辺によって接続されたノードからなるクラスタについて、当該クラスタに属するノードに基づいて、局所的尤度を算出する局所的尤度算出ステップを有し、
前記局所的尤度から前記テンプレートモデルにおける状態の出力分布を算出する
ことを特徴とする請求項15記載のパターン認識方法。
The likelihood calculating step includes:
For a cluster composed of nodes connected by edges, a local likelihood calculating step for calculating a local likelihood based on nodes belonging to the cluster,
The pattern recognition method according to claim 15, wherein an output distribution of states in the template model is calculated from the local likelihood.
前記尤度算出ステップは、
前記自己増殖型ニューラルネットワークに配置される全てのノードに基づいて、大域的尤度を算出する大域的尤度算出ステップと、
辺によって接続されたノードからなるクラスタについて、当該クラスタに属するノードに基づいて、局所的尤度を算出する局所的尤度算出ステップとを有し、
前記大域的尤度及び/又は前記局所的尤度から前記テンプレートモデルにおける状態の出力分布を算出する
ことを特徴とする請求項15記載のパターン認識方法。
The likelihood calculating step includes:
A global likelihood calculating step for calculating a global likelihood based on all nodes arranged in the self-propagating neural network;
A local likelihood calculating step for calculating a local likelihood based on a node belonging to the cluster for a cluster composed of nodes connected by edges;
The pattern recognition method according to claim 15, wherein an output distribution of states in the template model is calculated from the global likelihood and / or the local likelihood.
前記テンプレートモデル生成ステップは、
前記入力パターン間のマッチングにより、当該入力パターンが属するクラスの標準パターンを選択する標準パターン選択ステップを有し、
前記入力パターンの大きさを前記標準パターンの大きさに正規化して、前記標準パターンの各フレームに対応する各前記入力パターンの一部又は全部を、前記テンプレートモデルにおける各状態に対応させる
ことを特徴とする請求項14記載のパターン認識方法。
The template model generation step includes
A standard pattern selection step of selecting a standard pattern of a class to which the input pattern belongs by matching between the input patterns;
The size of the input pattern is normalized to the size of the standard pattern, and a part or all of each of the input patterns corresponding to each frame of the standard pattern is made to correspond to each state in the template model. The pattern recognition method according to claim 14.
前記テンプレートモデル生成ステップでは、
前記テンプレートモデルにおける各状態に対応させた各前記入力パターンの一部又は全部からなる要素の集合について、前記入力パターンの入力パターン数及び当該入力パターンの特徴量の次元数に基づいて、当該要素集合を前記自己増殖型ニューラルネットワークに入力する
ことを特徴とする請求項19記載のパターン認識方法。
In the template model generation step,
For a set of elements consisting of part or all of each input pattern corresponding to each state in the template model, the element set based on the number of input patterns of the input pattern and the number of dimensions of the feature quantity of the input pattern The pattern recognition method according to claim 19, wherein the pattern recognition method is input to the self-propagating neural network.
前記テンプレートモデル生成ステップでは、
逐次的に入力パターンを追加して入力するときに、当該逐次的に追加される入力パターンの属するクラスに対応する前記テンプレートモデルについて、当該テンプレートモデルにおける状態の出力分布を前記逐次的に追加される入力パターンに応じて更新する
ことを特徴とする請求項14記載のパターン認識方法。
In the template model generation step,
When the input pattern is sequentially added and input, the output distribution of the state in the template model is sequentially added to the template model corresponding to the class to which the input pattern to be sequentially added belongs. 15. The pattern recognition method according to claim 14, wherein updating is performed according to the input pattern.
DPマッチング法を用いて前記マッチング処理を行う
ことを特徴とする請求項14乃至19記載のパターン認識方法。
The pattern recognition method according to claim 14, wherein the matching process is performed using a DP matching method.
前記自己増殖型ニューラルネットワークは、
入力される前記入力ベクトルに最も近い重みベクトルを持つノードと2番目に近い重みベクトルを持つノードの間に辺を接続したとき、
注目するノードと他のノード間の距離に基づいて算出される当該注目するノードの類似度閾値、及び前記入力ベクトルと当該注目するノード間の距離に基づいて、前記入力ベクトルをノードとして挿入するクラス間ノード挿入ステップと、
前記入力ベクトルに最も近いノードに対応する重みベクトル及び当該ノードと辺によって直接的に接続されるノードに対応する重みベクトルをそれぞれ前記入力ベクトルに更に近づけるように更新する重みベクトル更新ステップとを有する
ことを特徴とする請求項14記載のパターン認識方法。
The self-propagating neural network is
When an edge is connected between a node having the closest weight vector to the input vector and a node having the second closest weight vector,
Class that inserts the input vector as a node based on the similarity threshold of the node of interest calculated based on the distance between the node of interest and another node, and the distance between the input vector and the node of interest Inter-node insertion step;
A weight vector update step of updating a weight vector corresponding to a node closest to the input vector and a weight vector corresponding to a node directly connected to the node by an edge so as to be closer to the input vector. The pattern recognition method according to claim 14.
前記クラス間ノード挿入ステップは、
入力される前記入力ベクトルに最も近い重みベクトルを持つノードを第1勝者ノードとし、2番目に近い重みベクトルを持つノードを第2勝者ノードとし、当該第1勝者ノード及び当該第2勝者ノードの間に辺を接続したとき、
注目するノードについて、当該注目するノードと辺によって直接的に接続されるノードが存在する場合には、当該直接的に接続されるノードのうち当該注目するノードからの距離が最大であるノード間の距離を前記類似度閾値とし、当該注目するノードと辺によって直接的に接続されるノードが存在しない場合には、当該注目するノードからの距離が最小であるノード間の距離を前記類似度閾値として算出する類似度閾値算出ステップと、
前記入力ベクトルと前記第1勝者ノード間の距離が当該第1勝者ノードの類似度閾値より大きいか否か、及び、前記入力ベクトルと前記第2勝者ノード間の距離が当該第2勝者ノードの類似度閾値より大きいか否かを判定する類似度閾値判定ステップと、
類似度閾値判定結果に基づいて、前記入力ベクトルをノードとして当該入力ベクトルと同じ位置に挿入するノード挿入ステップとを有する
ことを特徴とする請求項23記載のパターン認識方法。
The inter-class node insertion step includes:
A node having a weight vector closest to the input vector to be inputted is a first winner node, a node having a weight vector closest to the second is a second winner node, and between the first winner node and the second winner node When the side is connected to
When there is a node that is directly connected to the node of interest by a side with respect to the node of interest, among the nodes that are directly connected, between the nodes having the maximum distance from the node of interest When the distance is the similarity threshold and there is no node directly connected to the target node by the side, the distance between the nodes having the smallest distance from the target node is the similarity threshold. A similarity threshold calculation step to calculate;
Whether the distance between the input vector and the first winner node is greater than the similarity threshold of the first winner node, and the distance between the input vector and the second winner node is similar to the second winner node A similarity threshold determination step for determining whether or not it is greater than the degree threshold;
24. The pattern recognition method according to claim 23, further comprising a node insertion step of inserting the input vector as a node at the same position as the input vector based on a similarity threshold determination result.
前記自己増殖型ニューラルネットワークは、
前記辺に対応付けられる辺の年齢に基づいて、当該辺を削除する辺削除ステップと、
注目するノードについて、当該注目するノードに直接的に接続される辺の本数に基づいて、当該注目するノードを削除するノード削除ステップとを更に有する
ことを特徴とする請求項23記載のパターン認識方法。
The self-propagating neural network is
A side deletion step of deleting the side based on the age of the side associated with the side;
The pattern recognition method according to claim 23, further comprising: a node deletion step of deleting the node of interest based on the number of sides directly connected to the node of interest, based on the number of sides directly connected to the node of interest. .
前記自己増殖型ニューラルネットワークは1層構造である
ことを特徴とする請求項14記載のパターン認識方法。
15. The pattern recognition method according to claim 14, wherein the self-propagating neural network has a single layer structure.
請求項14乃至26いずれか1項記載のパターン認識処理をコンピュータに実行させることを特徴とするプログラム。   27. A program for causing a computer to execute the pattern recognition processing according to claim 14.
JP2007145601A 2007-05-31 2007-05-31 Pattern recognition apparatus, pattern recognition method, and program Pending JP2008299640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007145601A JP2008299640A (en) 2007-05-31 2007-05-31 Pattern recognition apparatus, pattern recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007145601A JP2008299640A (en) 2007-05-31 2007-05-31 Pattern recognition apparatus, pattern recognition method, and program

Publications (1)

Publication Number Publication Date
JP2008299640A true JP2008299640A (en) 2008-12-11

Family

ID=40173100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007145601A Pending JP2008299640A (en) 2007-05-31 2007-05-31 Pattern recognition apparatus, pattern recognition method, and program

Country Status (1)

Country Link
JP (1) JP2008299640A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086132A (en) * 2009-10-16 2011-04-28 Tokyo Institute Of Technology Associative storage device, method and program for associative storage
JP2013511783A (en) * 2009-11-24 2013-04-04 ザイムワークス,インコーポレイテッド Density-based clustering for multidimensional data
CN111611908A (en) * 2014-12-22 2020-09-01 迈克菲有限责任公司 System and method for real-time user authentication in online education
WO2023021776A1 (en) * 2021-08-18 2023-02-23 Soinn株式会社 Information processing device, information processing method, and non-transitory computer-readable medium in which program is stored

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
CSNG199900642010; 谷川 哲司・上條 憲一: 'ダイナミックプログラミングニューラルネットワークを用いた株価変動パターンの照合' 電子情報通信学会技術研究報告 第90巻,第333号, 19901126, p.75-82., 社団法人電子情報通信学会 *
CSNG200000742004; 中川 聖一・早川 勲: 'シーケンシャルニューラルネットワークを用いた音声認識' 電子情報通信学会論文誌 第J74-D-II巻,第9号, 19910925, p.1174-1183., 社団法人電子情報通信学会 *
CSNG200700556022; 小倉 和貴 他2名: '競合型ニューラルネットワークによるオンライン追加学習と高密度オーバーラップの分離' 情報処理学会研究報告 第2007巻,第31号, 20070320, p.169-176., 社団法人情報処理学会 *
JPN6012026273; An incremental network for on-line unsupervised classification and topology learning: 'F.Shen and O.Hasegawa' Neural Networks Vol.19 No.1, 2006, pp.90-106 *
JPN6012053026; 小倉 和貴 他2名: '競合型ニューラルネットワークによるオンライン追加学習と高密度オーバーラップの分離' 情報処理学会研究報告 第2007巻,第31号, 20070320, p.169-176., 社団法人情報処理学会 *
JPN6012053029; 谷川 哲司・上條 憲一: 'ダイナミックプログラミングニューラルネットワークを用いた株価変動パターンの照合' 電子情報通信学会技術研究報告 第90巻,第333号, 19901126, p.75-82., 社団法人電子情報通信学会 *
JPN6012053032; 中川 聖一・早川 勲: 'シーケンシャルニューラルネットワークを用いた音声認識' 電子情報通信学会論文誌 第J74-D-II巻,第9号, 19910925, p.1174-1183., 社団法人電子情報通信学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086132A (en) * 2009-10-16 2011-04-28 Tokyo Institute Of Technology Associative storage device, method and program for associative storage
JP2013511783A (en) * 2009-11-24 2013-04-04 ザイムワークス,インコーポレイテッド Density-based clustering for multidimensional data
CN111611908A (en) * 2014-12-22 2020-09-01 迈克菲有限责任公司 System and method for real-time user authentication in online education
CN111611908B (en) * 2014-12-22 2023-08-29 迈克菲有限责任公司 System and method for real-time user authentication in online education
US12046074B2 (en) 2014-12-22 2024-07-23 Mcafee, Llc Systems and methods for real-time user verification in online education
WO2023021776A1 (en) * 2021-08-18 2023-02-23 Soinn株式会社 Information processing device, information processing method, and non-transitory computer-readable medium in which program is stored
JP7577385B2 (en) 2021-08-18 2024-11-05 Soinn株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
Graves et al. Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks
CN108346436B (en) Voice emotion detection method and device, computer equipment and storage medium
US7010167B1 (en) Method of geometric linear discriminant analysis pattern recognition
Li et al. A maximal figure-of-merit learning approach to maximizing mean average precision with deep neural network based classifiers
Zhuang et al. Unrestricted Vocabulary Keyword Spotting Using LSTM-CTC.
US20080107340A1 (en) Handwritten Word Recognition Using Nearest Neighbor Techniques That Allow Adaptive Learning
JP4730404B2 (en) Information processing apparatus, information processing method, and computer program
WO2016165120A1 (en) Deep neural support vector machines
Li et al. Temporal pattern generation using hidden Markov model based unsupervised classification
CN106098059A (en) customizable voice awakening method and system
CN103415825A (en) System and method for gesture recognition
CN110299150A (en) A kind of real-time voice speaker separation method and system
JP4860265B2 (en) Text processing method / program / program recording medium / device
WO2007105409A1 (en) Reference pattern adapter, reference pattern adapting method, and reference pattern adapting program
JP2008299640A (en) Pattern recognition apparatus, pattern recognition method, and program
CN115344693A (en) Clustering method based on fusion of traditional algorithm and neural network algorithm
Sapkota et al. Adaptive robust evidential optimization for open set detection from imbalanced data
JP5130523B2 (en) Information processing apparatus, information processing method, and program
Narimatsu et al. State duration and interval modeling in hidden semi-Markov model for sequential data analysis
Missaoui et al. Multi-stream continuous hidden Markov models with application to landmine detection
Lee et al. Minimum entropy, k-means, spectral clustering
CN119832910A (en) Method and apparatus for automatically training a speech recognition system
JP7577385B2 (en) Information processing device, information processing method, and program
Lazli et al. Discriminant learning for hybrid HMM/MLP speech recognition system using a fuzzy genetic clustering
Bicego et al. Clustering-based construction of hidden Markov models for generative kernels

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305