JP2002008031A - Pattern detection apparatus and method, image processing apparatus and method - Google Patents
Pattern detection apparatus and method, image processing apparatus and methodInfo
- Publication number
- JP2002008031A JP2002008031A JP2000181480A JP2000181480A JP2002008031A JP 2002008031 A JP2002008031 A JP 2002008031A JP 2000181480 A JP2000181480 A JP 2000181480A JP 2000181480 A JP2000181480 A JP 2000181480A JP 2002008031 A JP2002008031 A JP 2002008031A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- gaze
- detection
- pattern
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 注視位置及び注視領域の設定及び変更を安定
的かつ効率的に行いながら入力パターンより所定パター
ンの検出を行なう。
【解決手段】 入力パターンより所定パターンの検出を
行なうパターン検出装置に、パターンを入力する入力層
101と、入力されたパターンを所定の方法によりサンプ
リングして得られる各点に対応して、それぞれ複数の特
徴を検出する複数個の特徴検出モジュール106を複数の
階層に設けた特徴検出層102と、上位層からのフィード
バック信号の分布に基づき、下位層出力に関する注視領
域109の設定を制御する注視領域設定制御層108とを備え
る。
(57) [Problem] To detect a predetermined pattern from an input pattern while stably and efficiently setting and changing a gaze position and a gaze area. An input layer for inputting a pattern to a pattern detection device for detecting a predetermined pattern from an input pattern.
101, corresponding to each point obtained by sampling the input pattern by a predetermined method, a feature detection layer 102 provided with a plurality of feature detection modules 106 for detecting a plurality of features in a plurality of layers, respectively. And a gaze area setting control layer 108 for controlling the setting of the gaze area 109 regarding the output of the lower layer based on the distribution of the feedback signal from the upper layer.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、パターン認識、特
定被写体の検出等を行うパターン検出装置及び方法、画
像処理装置及び方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern detecting apparatus and method for performing pattern recognition, specific object detection, and the like, and an image processing apparatus and method.
【0002】[0002]
【従来の技術】従来より、画像認識や音声認識の分野に
おいては、特定の認識対象に特化した認識処理アルゴリ
ズムをコンピュータソフトとして逐次演算して実行する
タイプ、或いは専用並列画像処理プロセッサ(SIM
D、MIMDマシン等)により実行するタイプに大別さ
れる。2. Description of the Related Art Conventionally, in the field of image recognition and voice recognition, a type in which a recognition processing algorithm specialized for a specific recognition target is sequentially calculated and executed as computer software, or a dedicated parallel image processor (SIM) is used.
D, MIMD machine, etc.).
【0003】画像認識アルゴリズムにおいては、生体系
処理とのアナロジーから、注視領域を選択的にシフト等
しながら認識を行うことにより、認識処理に要する演算
コスト(負荷)を軽減することが重要と考えられてい
る。In the image recognition algorithm, it is considered important to reduce the calculation cost (load) required for the recognition process by performing the recognition while selectively shifting the gaze area, etc., based on an analogy with the biological processing. Have been.
【0004】例えば、特公平6―34236号公報に係
る階層型情報処理方法では、特徴抽出素子層と同一特徴
に応じた特徴抽出素子からの出力に応じた出力を行う特
徴統合層とを有する複数の階層間に、下位層から上位層
に向かう複数の上向性信号経路に対応して上位層から下
位層へ向かう下向性信号経路を設け、最上位層からの下
向性信号に応じて上向性信号の伝達を制御することによ
り、自己想起型の連想能力と特定パターンの選択的抽出
によるセグメンテーションを行うことにより、処理領域
(認識のための注視領域)を設定している。For example, in a hierarchical information processing method according to Japanese Patent Publication No. 6-34236, a hierarchical information processing method includes a feature extraction element layer and a feature integration layer that performs an output according to an output from a feature extraction element corresponding to the same feature. Between the lower layers, a plurality of downward signal paths from the upper layer to the lower layer are provided corresponding to a plurality of upward signal paths from the lower layer to the upper layer, and according to the downward signal from the uppermost layer, The processing area (gaze area for recognition) is set by performing the segmentation by controlling the transmission of the upward signal and selectively extracting the specific pattern and the self-associative associative ability.
【0005】USP4876731では、上記のような
上向性信号経路と下向性信号経路は出力層(最上位層)
からの文脈的情報(ルールデータベース、確率的重み付
け処理)に基づき制御されている。In US Pat. No. 4,876,731, the upward signal path and the downward signal path as described above are connected to an output layer (uppermost layer).
Is controlled based on contextual information (rule database, probabilistic weighting processing) from.
【0006】特許2856702号公報では、認識を修
正することを注視といい、正確な認識を行うためにパタ
ーンが特定できないときに各部分領域に対する注視度を
選択する注視度判断部と、その選択された注視度を加味
した認識をさせる注視度制御部とをパターン認識装置に
具備させている。In Japanese Patent No. 2856702, correction of recognition is called gaze, and a gaze degree judging section for selecting a gaze degree for each partial region when a pattern cannot be specified for accurate recognition, and a gaze degree determination section for selecting the gaze degree. And a gaze degree control unit for performing recognition in consideration of the gaze degree.
【0007】KochとUllman(1985)が提案した選択的ルー
ティングによる注視領域の設定制御を行う方式(Human N
eurobiology, vol.4, pp.219-227)は、特徴抽出と選択
的マッピング機構による顕著度マップ抽出機構、いわゆ
るウイナー・テイク・オール(Winner-take-all)神経回
路網(特開平5-242069号公報, US5049758号公報, US5059
814号公報, US5146106号公報など参照)による注視位置
の選択機構、そして選択位置での神経素子の抑制機構を
具備して注視制御を行う。[0007] A method for controlling the setting of a gaze area by selective routing proposed by Koch and Ullman (1985) (Human N
eurobiology, vol. 4, pp. 219-227) is a saliency map extraction mechanism based on feature extraction and a selective mapping mechanism, a so-called Winner-take-all neural network (Japanese Patent Laid-Open No. 5-242069). No., US5049758, US5059
The gaze control is performed by using a gaze position selection mechanism according to Japanese Patent Application Laid-Open No. 814 and US Pat. No. 5,146,106, and a mechanism for suppressing neural elements at the selected position.
【0008】ダイナミックルーティング回路網により対
象中心のスケール、位置不変な表現を得て行う方法(And
erson, et al. 1995, Routing Networks in Visual Cor
tex,in Handbook of Brain Theory and Neural Network
s (M. Arbib, Ed.), MIT Press, pp.823-826、Olhausen
et al. 1995, A Multiscale Dynamic Routing Circuit
for Forming Size- and Position-Invariant Object R
epresentations, J.Computational Neuroscience, vol.
2 pp.45-62.)では、動的に結合荷重を設定する機能を有
する制御ニューロンを介した情報のルーティングを行う
ことにより、注視領域の制御、及び認識対象についての
観察者中心での特徴表現から対象物中心の表現への変換
を行う。A method of obtaining and expressing a scale and a position invariant of a center of an object by a dynamic routing network (And
erson, et al. 1995, Routing Networks in Visual Cor
tex, in Handbook of Brain Theory and Neural Network
s (M. Arbib, Ed.), MIT Press, pp. 823-826, Olhausen
et al. 1995, A Multiscale Dynamic Routing Circuit
for Forming Size- and Position-Invariant Object R
epresentations, J. Computational Neuroscience, vol.
2 pp.45-62.), By routing information through control neurons that have the function of dynamically setting connection weights, control of the gaze area and observer-centered features of the recognition target Performs conversion from expression to object-centric expression.
【0009】選択的チューニングによる方法(Culhane &
Tsotsos, 1992, An Attentional Prototype for Early
Vision. Proceedings of Second European Conference
onComputer Vision ,(G.Sadini Ed.), Springer-Verla
g, pp. 551-560.)では、最上位層でのWTA回路から下
位層のWTA回路へと勝者のみを活性化させる機構によ
り探索することにより、最上位層での全体的な勝者の位
置を最下位層(入力データを直接受ける層)で決定す
る。注視制御において行う位置の選択と特徴の選択は、
それぞれ対象の位置と無関係な結合の抑制及び対象に関
与しない特徴を検出するような素子に対する抑制により
実現される。The method by selective tuning (Culhane &
Tsotsos, 1992, An Attentional Prototype for Early
Vision. Proceedings of Second European Conference
onComputer Vision, (G.Sadini Ed.), Springer-Verla
g, pp. 551-560.), the overall winner position in the uppermost layer is searched by the mechanism that activates only the winner from the WTA circuit in the uppermost layer to the lower layer WTA circuit. Is determined in the lowest layer (the layer that directly receives input data). Selection of position and feature selection in gaze control
This is achieved by suppressing the coupling irrespective of the position of the object and suppressing elements that detect features not related to the object.
【0010】[0010]
【発明が解決しようとする課題】前述したような選択的
注視を行う方法では、次のような問題があった。However, the method of performing the selective gaze as described above has the following problems.
【0011】まず、特公平6―34236号公報に係る
方法では、階層的神経回路構成において、上向性信号経
路と対をなす下向性信号経路が存在することが前提とな
っているため、上向性信号経路に相当する神経回路と同
程度の大きさの神経回路が下向性信号経路を形成する回
路として必要となり、回路規模が非常に大きくなるとい
う問題があった。First, the method according to Japanese Patent Publication No. 6-34236 presupposes that there is a downward signal path paired with an upward signal path in a hierarchical neural circuit configuration. A neural circuit having the same size as the neural circuit corresponding to the upward signal path is required as a circuit forming the downward signal path, and there has been a problem that the circuit scale becomes very large.
【0012】また、この方法では、注視位置を順次変更
制御する機構が設けられていないため、ノイズその他の
影響により、注視領域設定及び変更の際の動作の安定性
に欠けるという問題があった。即ち、上向性経路の中間
層の素子と下向性経路の中間層の素子間に、全ての階層
にわたって相互作用が存在し、注視位置は、それら相互
作用の全体を通じて最終的に決まるので、複数の同一カ
テゴリに属する対象が存在する場合に、注視点位置がそ
れら対象間を安定的に順次遷移するように制御されず、
注視位置が特定の対象間(又はその近傍)だけで振動した
りする問題があった。Further, in this method, there is no mechanism for sequentially changing and controlling the gaze position, so that there is a problem in that the operation at the time of setting and changing the gaze area lacks stability due to the influence of noise or the like. That is, there is an interaction between the elements of the intermediate layer of the upward path and the elements of the intermediate layer of the downward path over all layers, and the gaze position is ultimately determined through the whole of the interactions. When there are a plurality of objects belonging to the same category, the gazing point position is not controlled so as to make a stable sequential transition between the objects,
There is a problem that the gaze position vibrates only between specific objects (or in the vicinity thereof).
【0013】更に、検出(認識)対象と同一カテゴリの対
象が複数入力データ中に存在する場合に、同時に複数の
対象に対する処理(実質的に注視になっていない処理)
が発生したり、適切な注視位置の更新を行うためには、
そのたびにネットワークパラメータの微妙な調整を行う
ことが必要となるという問題があった。Furthermore, when a plurality of objects of the same category as the detection (recognition) object exist in the input data, processing is performed on the plurality of objects simultaneously (processing that is not substantially watched).
Occurs or in order to update the gaze position appropriately,
Each time, there is a problem that it is necessary to finely adjust the network parameters.
【0014】また、選択的ルーティングによる方式で
は、注視位置の制御においては、選択された領域を抑制
する機構のみを有している為、注視点位置の効率的制御
が容易でなく、注視点位置の制御が、特定対象或いは特
定部位に偏ったりすることがあった。In the selective routing method, since the gaze position is controlled only by a mechanism for suppressing the selected area, efficient control of the gaze position is not easy, and the gaze position is not easily controlled. Control may be biased toward a specific target or a specific site.
【0015】また、ダイナミックルーティング回路網に
よる方式では、シナプス結合荷重を動的に変更可能な多
くの制御ニューロンを介して層間結合の再構成を行うた
め、回路構成が複雑となり、また、制御ニューロンの作
用が下位層の特徴顕著度に基づくボトムアップな処理過
程であったため、複数の同一カテゴリ対象が存在してい
る場合の効率的な注視位置の制御が困難であった。Further, in the method based on the dynamic routing network, the interlayer connection is reconfigured via many control neurons capable of dynamically changing the synaptic connection weight, so that the circuit configuration becomes complicated, Since the action is a bottom-up processing process based on the feature saliency of the lower layer, it has been difficult to efficiently control the gaze position when a plurality of the same category objects exist.
【0016】また、選択的チューニングによる方式で
は、選択された対象に関与しない結合を単に削ぎ落とす
いわゆるpruningに似た選択を階層的にかつ動的に行う
ので、複数の対象が存在する場合には注視点位置の効率
的制御が容易でないという問題があった。Further, in the method based on selective tuning, a selection similar to a so-called pruning in which a connection which is not involved in a selected object is simply removed is performed hierarchically and dynamically. There is a problem that it is not easy to efficiently control the gazing point position.
【0017】更に、上記した従来方式に共通して以下の
問題点があった。Further, there are the following problems common to the above-mentioned conventional systems.
【0018】まず、認識対象サイズの違いに対処できる
機構を有していないので、異なるサイズの対象が同時に
複数位置に存在する場合や、認識対象のサイズが異なる
複数のシーンについて、そのシーン毎にネットワークパ
ラメータのチューニングを行う必要があった。First, since there is no mechanism capable of coping with the difference in the size of the recognition target, when there are objects of different sizes at a plurality of positions at the same time, or for a plurality of scenes with different sizes of the recognition target, It was necessary to tune network parameters.
【0019】また、複数の同一カテゴリに属する対象が
入力データ中の複数の位置に存在するとき、それらの間
を万遍なくかつ効率的に注視位置を遷移(更新)すること
ができなかった。Further, when a plurality of objects belonging to the same category exist at a plurality of positions in the input data, the gaze position cannot be transitioned (updated) uniformly and efficiently between them.
【0020】[0020]
【課題を解決するための手段】上記課題を解決するため
に、本発明によれば、パターン検出装置に、パターンを
入力する入力手段と、前記入力手段より入力されたパタ
ーンを所定の方法によりサンプリングして得られる各点
に対応して、それぞれ複数の特徴を検出する複数個の特
徴検出素子を複数の階層に備え、所定パターンの検出を
行なう検出処理手段と、前記複数の階層の上位層からの
フィードバック信号の分布に基づき、前記複数の階層の
下位層出力に関する注視領域の設定を制御する注視領域
設定制御手段とを備える。According to the present invention, there is provided, in accordance with the present invention, an input means for inputting a pattern to a pattern detecting device, and a sampling of the pattern input from the input means by a predetermined method. Corresponding to each point obtained by providing a plurality of feature detecting elements for detecting a plurality of features on a plurality of layers, respectively, detecting processing means for detecting a predetermined pattern, and from a higher layer of the plurality of layers, Gaze area setting control means for controlling the setting of a gaze area for lower layer outputs of the plurality of layers based on the distribution of the feedback signal.
【0021】また、本発明の他の態様によれば、パター
ン検出装置に、パターンを入力する入力手段と、前記入
力手段より入力されたパターンを所定の方法によりサン
プリングして得られる各点に対応して、それぞれ複数の
特徴を検出する複数個の特徴検出素子と、特徴顕著度を
検出する顕著度検出素子と、前記素子間を結合し信号を
伝達する結合手段とを備え、低次から高次までの特徴に
関する複数の素子層を形成し、所定パターンの検出を行
なう検出処理手段と、注視領域設定制御手段とを備え、
前記結合手段は、高次の特徴に関する素子層からそれよ
り低次の特徴に関する素子層への信号伝達を行うフィー
ドバック結合手段を備え、前記注視領域設定制御手段
は、前記特徴顕著度と前記フィードバック結合手段より
得られる信号伝達量とに基づいて、低次の特徴データ又
は入力データに関する注視領域の設定を制御することを
特徴とする。According to another aspect of the present invention, an input means for inputting a pattern to the pattern detection device, and a pattern corresponding to each point obtained by sampling the pattern input from the input means by a predetermined method. A plurality of feature detection elements for detecting a plurality of features, a saliency detection element for detecting feature saliency, and coupling means for coupling between the elements and transmitting a signal. Forming a plurality of element layers related to the following features, comprising a detection processing means for detecting a predetermined pattern, and a gaze area setting control means,
The coupling means includes feedback coupling means for transmitting a signal from an element layer relating to a higher-order characteristic to an element layer relating to a lower-order characteristic, and the gaze area setting control means includes the characteristic saliency and the feedback coupling. The setting of a gaze area for low-order feature data or input data is controlled based on the signal transmission amount obtained from the means.
【0022】また、本発明の他の態様によれば、パター
ン検出装置に、パターンを入力する入力手段と、複数の
解像度又はスケールレベルごとに複数の特徴を抽出する
特徴検出層と当該特徴検出層からの出力を所定の方法で
統合して出力する特徴統合層とをそれぞれ少なくとも1
層有する階層的ネットワーク構造を備え、所定パターン
の検出を行なう検出処理手段と、注視領域設定制御手段
とを備え、前記特徴検出層及び特徴統合層が、所定の結
合手段により互いに結合する複数の素子を備え、前記特
徴検出層又は前記特徴統合層は特徴顕著度を検出する顕
著度検出素子を有し、前記結合手段は、前記階層的ネッ
トワーク構造の上位層から下位層への信号伝達を行うフ
ィードバック結合手段を有し、前記注視領域設定制御手
段は、前記フィードバック結合手段からの信号及び前記
特徴顕著度に基づいて、注視領域に関する制御信号を発
生することを特徴とする。According to another aspect of the present invention, an input means for inputting a pattern to a pattern detection device, a feature detection layer for extracting a plurality of features for each of a plurality of resolutions or scale levels, and the feature detection layer And at least one feature integration layer that integrates and outputs the output from
A plurality of elements having a hierarchical network structure having a plurality of layers, comprising: a detection processing unit for detecting a predetermined pattern; and a gaze area setting control unit, wherein the feature detection layer and the feature integration layer are connected to each other by a predetermined connection unit. Wherein the feature detection layer or the feature integration layer has a saliency detection element for detecting feature saliency, and the coupling means performs feedback for transmitting a signal from an upper layer to a lower layer of the hierarchical network structure. The apparatus further includes a coupling unit, and the gaze area setting control unit generates a control signal related to the gaze area based on the signal from the feedback coupling unit and the feature saliency.
【0023】また、本発明の他の態様によれば、パター
ン検出装置に、パターンを入力する入力手段と、注視領
域設定制御手段と、それぞれが異なる解像度またはスケ
ールレベルに対応し、階層的構造を有する複数の処理手
段とを有し、前記複数の処理手段は、前記入力データを
所定の方法によりサンプリングして得られる各点に対応
して、それぞれ複数の特徴を検出する複数個の特徴検出
素子と、互いに異なる解像度又はスケールレベルに対応
する前記処理手段の複数の特徴検出素子出力を結合する
多重化処理手段と、異なる素子間の信号伝達を行う結合
手段とを有し、前記結合手段は、上位層から下位層への
信号伝達を行うフィードバック結合手段を有し、所定パ
ターンの検出を行なうことを特徴とする。According to another aspect of the present invention, an input means for inputting a pattern, a gaze area setting control means, each of which corresponds to a different resolution or scale level, and has a hierarchical structure. And a plurality of feature detecting elements for detecting a plurality of features, respectively, corresponding to each point obtained by sampling the input data by a predetermined method. And multiplex processing means for combining a plurality of feature detection element outputs of the processing means corresponding to different resolutions or scale levels, and coupling means for performing signal transmission between different elements, the coupling means, It has a feedback coupling means for transmitting a signal from an upper layer to a lower layer, and detects a predetermined pattern.
【0024】また、本発明の他の態様によれば、画像処
理装置に、撮影対象についてのモデルデータを記憶する
記憶手段と、注視領域を順次更新しながら前記モデルデ
ータに関して所定の基準に合致する注視領域を探索して
設定する設定手段と、前記注視領域設定手段により設定
された注視領域に基づいて撮影条件を決定する決定手段
とを備える。According to another aspect of the present invention, a storage means for storing model data of an object to be photographed in the image processing apparatus, and the model data satisfying a predetermined standard while sequentially updating the gaze area. The apparatus includes setting means for searching for and setting a gaze area, and determination means for determining a shooting condition based on the gaze area set by the gaze area setting means.
【0025】また、本発明の他の態様によれば、画像処
理装置に、ユーザの視線より注視位置を検出する注視位
置検出手段と、前記注視位置に基づいて注視領域を探索
して設定する注視領域設定手段と、前記注視領域設定手
段により設定された注視領域に基づいて撮影条件を決定
する決定手段とを備える。According to another aspect of the present invention, a gaze position detecting means for detecting a gaze position from a user's gaze in the image processing apparatus, and a gaze for searching and setting a gaze region based on the gaze position. The image processing apparatus includes an area setting unit and a determining unit that determines a photographing condition based on the gaze area set by the gaze area setting unit.
【0026】また、本発明の他の態様によれば、パター
ン検出方法に、パターンを入力する入力ステップと、入
力された前記パターンを所定の方法によりサンプリング
して得られる各点に対応して、それぞれ複数の特徴を検
出する特徴検出処理を階層的に実行して、所定パターン
の検出を行なう検出処理ステップと、前記検出処理ステ
ップの上位層からのフィードバック信号の分布に基づ
き、前記検出処理ステップの下位層出力に関する注視領
域の設定を制御する注視領域設定制御ステップとを備え
る。According to another aspect of the present invention, in a pattern detection method, an input step of inputting a pattern, and corresponding to each point obtained by sampling the input pattern by a predetermined method, A detection process step of performing a feature detection process of detecting a plurality of features in a hierarchical manner to detect a predetermined pattern, and a distribution of a feedback signal from an upper layer of the detection process step; A gaze area setting control step of controlling setting of a gaze area relating to lower layer output.
【0027】また、本発明の他の態様によれば、パター
ン検出方法に、パターンを入力する入力ステップと、入
力された前記パターンより所定パターンの検出を行なう
検出処理ステップと、注視領域設定制御ステップとを有
し、前記検出処理ステップは、入力された前記パターン
を所定の方法によりサンプリングして得られる各点に対
応して、それぞれ低次から高次までの特徴に関する複数
の特徴を検出する複数個の特徴検出ステップと、特徴顕
著度を検出する顕著度検出ステップとを備え、前記注視
領域設定制御ステップは、前記特徴顕著度と前記高次の
特徴に関するフィードバック信号に基づいて低次特徴デ
ータ又は入力データに関する注視領域の位置及びサイズ
を設定制御することを特徴とする。According to another aspect of the present invention, in the pattern detection method, an input step of inputting a pattern, a detection processing step of detecting a predetermined pattern from the input pattern, and a gaze area setting control step Wherein the detection processing step comprises detecting a plurality of features relating to features from low order to high order, corresponding to each point obtained by sampling the input pattern by a predetermined method. Number of feature detection steps, comprising a saliency detection step of detecting feature saliency, the gaze area setting control step, low-order feature data based on the feature saliency and the feedback signal about the higher-order features or The position and size of the gaze area related to the input data are set and controlled.
【0028】また、本発明の他の態様によれば、パター
ン検出方法に、パターンを入力する入力ステップと、入
力された前記パターンより所定パターンの検出を行なう
検出処理ステップと、注視領域設定制御ステップとを有
し、前記検出処理ステップは、複数の解像度又はスケー
ルレベルごとに複数の特徴を抽出する特徴検出ステップ
と当該特徴検出ステップの出力を所定の方法で統合して
出力する特徴統合ステップとをそれぞれ少なくとも1つ
有する階層的処理構造を有し、前記特徴検出ステップ又
は前記特徴統合ステップは特徴顕著度を検出する顕著度
検出ステップを備え、前記注視領域設定制御ステップ
は、前記階層的処理構造の上位フィードバック信号及び
前記特徴顕著度に基づいて、注視領域に関する制御信号
を発生することを特徴とする。According to another aspect of the present invention, in the pattern detection method, an input step of inputting a pattern, a detection processing step of detecting a predetermined pattern from the input pattern, and a gaze area setting control step Wherein the detection processing step includes: a feature detection step of extracting a plurality of features for each of a plurality of resolutions or scale levels; and a feature integration step of integrating and outputting an output of the feature detection step by a predetermined method. Each having at least one hierarchical processing structure, wherein the feature detection step or the feature integration step includes a saliency detection step of detecting a feature saliency; It is characterized in that a control signal relating to the attention area is generated based on the high-order feedback signal and the feature saliency. To.
【0029】また、本発明の他の態様によれば、パター
ン検出方法に、パターンを入力する入力ステップと、注
視領域設定制御ステップと、階層的に構成され、入力さ
れた前記パターンより所定パターンの検出を行なう検出
処理ステップとを有し、前記検出処理ステップが、前記
入力データを所定の方法によりサンプリングして得られ
る各点に対応して、それぞれ複数の特徴を検出する複数
個の特徴検出ステップと、互いに異なる解像度又はスケ
ールレベルに関する前記データ処理ステップの複数の出
力を結合する解像度又はスケールレベルの多重化処理ス
テップとを備える。According to another aspect of the present invention, in the pattern detection method, an input step of inputting a pattern, a gaze area setting control step, and a predetermined pattern based on the input pattern are hierarchically configured. A detection processing step of performing detection, wherein the detection processing step detects a plurality of features corresponding to each point obtained by sampling the input data by a predetermined method. And a multiplexing step of a resolution or scale level for combining a plurality of outputs of the data processing step for different resolution or scale levels.
【0030】また、本発明の他の態様によれば、画像処
理方法に、注視領域を順次更新しながら、撮影対象につ
いてのモデルデータに関して所定の基準に合致する注視
領域を探索して設定する設定ステップと、前記設定ステ
ップにより設定された注視領域に基づいて撮影条件を決
定するステップとを備える。According to another aspect of the present invention, there is provided a method for searching for and setting a gaze area that meets a predetermined criterion with respect to model data of an object to be photographed while sequentially updating the gaze area in the image processing method. And a step of determining a photographing condition based on the gaze area set in the setting step.
【0031】また、本発明の他の態様によれば、画像処
理方法に、ユーザの視線より注視位置を検出する注視位
置検出ステップと、前記注視位置に基づいて注視領域を
探索して設定する設定ステップと、前記設定ステップに
より設定された注視領域に基づいて撮影条件を決定する
決定ステップとを備える。According to another aspect of the present invention, a gaze position detecting step of detecting a gaze position from a user's line of sight, and a setting for searching and setting a gaze region based on the gaze position are provided in the image processing method. And a determining step of determining an imaging condition based on the gaze area set in the setting step.
【0032】[0032]
【発明の実施の形態】<第1の実施形態>以下、図面を
用いて本発明の1実施形態を詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS <First Embodiment> An embodiment of the present invention will be described below in detail with reference to the drawings.
【0033】全体構成概要 図1は、本実施形態のパターン検出・認識装置の全体構
成図を示す図である。ここで、パターン情報はWhat
経路(図上段)とWhere経路(図下段)により処理され
る。What経路は対象または幾何学的特徴などの認識
(検出)に関与する情報を、Where経路は対象または
特徴の位置(配置)に関する情報を主として扱う。The overall configuration Overview FIG. 1 is a diagram illustrating an overall configuration diagram of a pattern detection and recognition apparatus of this embodiment. Here, the pattern information is What
Processing is performed by a route (upper part in the figure) and a Where path (lower part in the figure). What path is the recognition of objects or geometric features
The Where route deals mainly with information relating to (detection), and the Where route mainly deals with information relating to the position (arrangement) of an object or feature.
【0034】What経路はいわゆるConvolutionalネ
ットワーク構造(LeCun, Y. and Bengio, Y., 1995, "Co
nvolutional Networks for Images Speech, and Time S
eries" in Handbook of Brain Theory and Neural Netw
orks (M. Arbib, Ed.), MIT Press, pp.255-258)を有し
ている。但し、同経路内の層間結合は局所的に相互結合
をなし得る点(後述)が、従来と異なる。What経路の
最終出力は認識結果、即ち認識された対象のカテゴリに
相当する。また、Where経路の最終出力は、認識結
果に対応する場所を表す。The What path is a so-called Convolutional network structure (LeCun, Y. and Bengio, Y., 1995, "Co
nvolutional Networks for Images Speech, and Time S
eries "in Handbook of Brain Theory and Neural Netw
orks (M. Arbib, Ed.), MIT Press, pp. 255-258). However, it differs from the conventional one in that the interlayer connection in the same path can locally form mutual connection (described later). The final output of the What path corresponds to a recognition result, that is, a recognized target category. The final output of the Where path indicates a location corresponding to the recognition result.
【0035】データ入力層101は、画像の検出認識など
を行う場合は、CMOSセンサー或いはCCD素子等の
光電変換素子であり、音声の検出認識などを行う場合に
は音声入力センサーである。また、所定データ解析部の
解析結果(例えば、主成分分析、ベクトル量子化など)
から得られる高次元のデータを入力するものであっても
よい。データ入力層101は、上記2経路に共通のデータ
入力を行う。The data input layer 101 is a photoelectric conversion element such as a CMOS sensor or a CCD element for detecting and recognizing an image, and is a voice input sensor for detecting and recognizing voice. Also, the analysis result of the predetermined data analysis unit (for example, principal component analysis, vector quantization, etc.)
May be inputted. The data input layer 101 performs data input common to the two paths.
【0036】なお、本実施形態において音声認識への適
用の詳細は説明はしないが、以下の説明でいう選択的注
視は、例えば特定帯域や音素のみ抽出処理すること、或
いは独立成分分析などの手法により抽出される「特徴」の
みを選択的に処理すること、或いは文脈に依存した特定
話者の音声(特徴)を抽出して処理することなどに相当す
る。Although the details of the application to speech recognition in the present embodiment will not be described, the selective gaze referred to in the following description is, for example, a method of extracting only a specific band or a phoneme, or a technique such as independent component analysis. This corresponds to selectively processing only the “features” extracted by the above, or extracting and processing the voice (features) of a specific speaker depending on the context.
【0037】以下、画像を入力する場合について説明す
る。What経路には、特徴検出層102((1,0)、
(1,1)、…、(1,N))と特徴統合層103((2,0)、
(2,1)、…、(2,N))と、注視領域設定制御層108とが
ある。Hereinafter, the case of inputting an image will be described. The What path includes the feature detection layer 102 ((1, 0),
(1, 1), ..., (1, N)) and the feature integration layer 103 ((2, 0),
(2, 1),..., (2, N)) and a gaze area setting control layer 108.
【0038】最初の特徴検出層(1,0)は、Gabor wavel
et変換その他による多重解像度処理により、画像パター
ンの局所的な低次の特徴(幾何学的特徴のほか色成分特
徴を含んでもよい)を全画面の各位置(或いは、全画面
にわたる所定のサンプリング点の各点)において同一箇
所で複数のスケールレベル又は解像度で複数の特徴カテ
ゴリの数だけ検出し、特徴量の種類(例えば、幾何学的
特徴として所定方向の線分を抽出する場合にはその幾何
学的構造である線分の傾き)に応じた受容野構造を有
し、その程度に応じたパルス列を発生するニューロン素
子から構成される。The first feature detection layer (1,0) is Gabor wavel
By multi-resolution processing by et conversion or the like, local low-order features (which may include color component features in addition to geometric features) of the image pattern are transferred to each position on the entire screen (or a predetermined sampling point over the entire screen). At the same location at a plurality of scale levels or resolutions, the number of feature categories, and the types of feature amounts (for example, when a line segment in a predetermined direction is extracted as a geometric feature, the Of the receptive field according to the geometrical structure (slope of the line segment), and is composed of neuron elements that generate pulse trains according to the degree.
【0039】注視領域設定制御層108は、後述する特徴
統合層(2,0)からの特徴顕著度マップと上位層、例えば
特徴位置検出層(3,k)からのフィードバック結合を後述
するWhere経路を通じて受け、そのフィードバック信号
に基づき注視領域の位置・サイズの設定及びそれらの更
新等の制御を行う。その動作機構の詳細については後述
する。The attention area setting control layer 108 includes a feature saliency map from a feature integration layer (2,0) described later and a feedback connection from an upper layer, for example, a feature position detection layer (3, k), a Where path described later. And controls the setting and updating of the position and size of the gaze area based on the feedback signal. The details of the operation mechanism will be described later.
【0040】特徴検出層(1,k)は全体として、複数の解
像度(又はスケールレベル)での処理チャネルを形成す
る。即ち、Gabor wavelet変換を特徴検出層(1,0)で
行う場合を例にとると、図12に示すように、スケール
レベルが同一で方向選択性の異なるGaborフィルタカー
ネルを受容野構造に持つ特徴検出細胞のセットは、特徴
検出層(1,0)において同一の処理チャネルを形成
し、後続の層(1,1) においても、それら特徴検出細胞
からの出力を受ける特徴検出細胞(より高次の特徴を検
出する)は、当該処理チャネルと同一のチャネルに属す
る。更に後続の層(1,k)(但しk>1)においても、
同様に(2,k―1)層において同一チャネルを形成する
複数の特徴統合細胞からの出力を受ける特徴検出細胞
は、当該チャネルに属するように構成される。各処理チ
ャネルは、同一スケールレベル(又は解像度)での処理
が進行していくものであり、階層的並列処理により低次
特徴から高次特徴までの検出及び認識を行う。The feature detection layer (1, k) as a whole forms a processing channel at a plurality of resolutions (or scale levels). That is, in the case where the Gabor wavelet transform is performed in the feature detection layer (1, 0), as shown in FIG. 12, a feature having a Gabor filter kernel having the same scale level and different direction selectivity in the receptive field structure, as shown in FIG. The set of detection cells forms the same processing channel in the feature detection layer (1,0), and in the subsequent layer (1,1), the feature detection cells (higher-order) receive the output from the feature detection cells. ) Belongs to the same channel as the processing channel. In the subsequent layer (1, k) (where k> 1),
Similarly, feature detection cells receiving outputs from a plurality of feature-integrated cells forming the same channel in the (2, k-1) layer are configured to belong to the channel. In each processing channel, processing at the same scale level (or resolution) proceeds, and detection and recognition from low-order features to high-order features are performed by hierarchical parallel processing.
【0041】What経路上の特徴統合層(2,0)は、
所定の受容野構造(以下、受容野とは直前の層の出力素
子との結合範囲を、受容野構造とはその結合荷重の分布
を意味する)を有し、パルス列を発生するニューロン素
子からなり、特徴検出層(1,0)からの同一受容野内の
複数のニューロン素子出力の統合(局所平均化等による
サブサンプリング、及び異なるスケールレベルでの処理
結果の結合処理などの演算)を行う。The feature integration layer (2,0) on the What path is
It has a predetermined receptive field structure (hereinafter, the receptive field means the coupling range with the output element of the immediately preceding layer, and the receptive field structure means the distribution of the coupling load), and is composed of neuron elements that generate a pulse train. The integration of outputs of a plurality of neuron elements in the same receptive field from the feature detection layer (1, 0) (operations such as subsampling by local averaging and the like and processing for combining processing results at different scale levels) are performed.
【0042】また、特徴統合層内のニューロンの各受容
野は同一層内のニューロン間で共通の構造を有してい
る。各特徴検出層(1,1)、(1,2)、…、(1,N))及
び各特徴統合層((2,1)、(2,2)、…、(2,N))は、
それぞれ学習により獲得した所定の受容野構造を持ち、
上述した各層と同様に前者((1,1)、…)は、各特徴
検出モジュールにおいて複数の異なる特徴の検出を行
い、後者((2,1)、…)は、前段の特徴検出層からの
複数特徴に関する検出結果の統合を行う。Each receptive field of a neuron in the feature integration layer has a common structure among neurons in the same layer. Each feature detection layer (1, 1), (1, 2), ..., (1, N)) and each feature integration layer ((2, 1), (2, 2), ..., (2, N)) Is
Each has a predetermined receptive field structure acquired by learning,
Like the above-described layers, the former ((1, 1),...) Detects a plurality of different features in each feature detection module, and the latter ((2, 1),. The integration of the detection results related to multiple features is performed.
【0043】但し、前者の特徴検出層は、同一チャネル
に属する前段の特徴統合層の細胞素子出力を受けるよう
に結合(配線)されている。特徴統合層は2種類の処理
を行う。その第一であるサブサンプリングは、同一特徴
カテゴリかつ同一スケールレベルの特徴検出細胞集団か
らの局所的な領域(当該特徴統合層ニューロンの局所受
容野)からの出力についての平均化などを行うものであ
り、第二の処理である異なるスケールレベルでの処理結
果の結合処理とは、同一特徴カテゴリかつ異なる複数の
スケールレベルにわたる複数の特徴検出細胞集団の出力
の線形結合(又は非線形結合)を行う。However, the former feature detection layer is connected (wired) so as to receive the cell element output of the preceding feature integration layer belonging to the same channel. The feature integration layer performs two types of processing. The first sub-sampling is for averaging the output from a local region (local receptive field of the feature integrated layer neuron) from the feature detection cell population of the same feature category and the same scale level. In the second process, which is a process of combining processing results at different scale levels, a linear combination (or non-linear combination) of outputs of a plurality of feature detection cell populations in the same feature category and over a plurality of different scale levels is performed.
【0044】また、Where経路には、特徴位置検出層
((3,0)、…、(3,k))があり、What経路上の所定の
(全てである必要はない)特徴検出層からの入力を受
け、低次、中次、高次特徴の位置の出力に関与するとと
もに、Where経路は上位の特徴統合層又は特徴検出層か
らのフィードバック結合(図1では(1,N)→(3,k)→注視
領域設定制御層108)を形成する。The Where path has a feature position detection layer ((3,0),..., (3, k)), and a predetermined (not necessarily all) feature detection layer on the What path. And the output of low-order, middle-order, and higher-order features is involved, and the Where path is feedback-coupled from a higher-order feature integration layer or feature detection layer ((1, N) → ( 3, k) → A watching area setting control layer 108) is formed.
【0045】即ち、このフィードバック結合は、予め学
習により、上位層で検出される高次特徴パターンを構成
する特定の低次特徴に関する注視領域設定制御層108の
注視制御ニューロン1801(図18) への結合として形成
されているものとする。この学習は、例えば上位層の特
徴検出ニューロンと下位層の特徴検出ニューロンの所定
時間幅内での同時発火により、結合が増強または形成さ
れ(他の結合は抑制または消滅され)るような自己組織化
過程を伴うものである。That is, this feedback connection is performed by learning in advance to the gaze control neuron 1801 (FIG. 18) of the gaze area setting control layer 108 relating to a specific lower-order feature constituting the higher-order feature pattern detected in the upper layer. It shall be formed as a bond. This learning is based on self-organization in which connections are strengthened or formed (other connections are suppressed or eliminated) by simultaneous firing of upper layer feature detection neurons and lower layer feature detection neurons within a predetermined time width. It involves a chemical process.
【0046】各特徴位置検出層107の出力は、対応する
特徴検出層102出力の比較的高い解像度成分を保持する
(図1において特徴検出層から特徴位置検出層への矢印
は、いずれもこのことを模式的に示している)か、或い
は特徴統合層出力を一時的に保持することにより、各特
徴カテゴリについての顕著度マップを表す。ここにある
層での顕著度マップとは、同程度の複雑さを有する複数
の特徴カテゴリ(特徴要素)の検出レベル(又は入力デ
ータ上での存在確率)の空間的分布を表すものとする。
なお、Where経路の特徴位置検出層での処理については
後でも述べる。The output of each feature position detection layer 107 holds a relatively high resolution component of the output of the corresponding feature detection layer 102 (in FIG. 1, each arrow from the feature detection layer to the feature position detection layer indicates this). Is shown schematically) or the feature integration layer output is temporarily stored to represent a saliency map for each feature category. Here, the saliency map of a certain layer indicates the spatial distribution of the detection levels (or existence probabilities on input data) of a plurality of feature categories (feature elements) having the same level of complexity.
The processing in the feature position detection layer of the Where route will be described later.
【0047】各層間のニューロン間を結合する機構は、
図2の(A)に示すように、神経細胞の軸索または樹状
突起に相当する信号伝達部203(配線または遅延線)、
及びシナプス結合回路S202である。The mechanism for connecting the neurons between the layers is as follows.
As shown in FIG. 2A, a signal transmission unit 203 (wiring or delay line) corresponding to axons or dendrites of nerve cells,
And a synapse connection circuit S202.
【0048】図2の(A)では、ある特徴検出(統合)
細胞に対する受容野を形成する特徴統合(検出)細胞のニ
ューロン群(ni)からの出力(当該細胞から見ると入
力)に関与する結合機構の構成を示している。信号伝達
部として太線で示している部分は共通バスラインを構成
し、この信号伝達ライン上に複数のニューロンからのパ
ルス信号が時系列に並んで伝達される。出力先の細胞か
らの入力を受ける場合も同様の構成がとられる。この場
合には、全く同じ構成において時間軸上で入力信号と出
力信号とを分割して処理してもよいし、或いは入力用
(樹状突起側)と出力用(軸索側)の2系統で図2(A)と
同様の構成を与えて処理してもよい。In FIG. 2A, certain features are detected (integrated).
FIG. 4 shows the configuration of a coupling mechanism involved in an output (input as viewed from the cell) from a neuron group (n i ) of a feature-integrated (detected) cell forming a receptive field for the cell. Portions indicated by bold lines as signal transmission units constitute a common bus line, on which pulse signals from a plurality of neurons are transmitted in time series. The same configuration is adopted when receiving an input from the output destination cell. In this case, the input signal and the output signal may be divided and processed on the time axis in the same configuration,
The two systems (dendritic side) and output (axon side) may be provided with the same configuration as in FIG. 2A for processing.
【0049】シナプス回路S202としては、層間結合
(特徴検出層102上のニューロンと特徴統合層103上のニ
ューロン間の結合であって、各層ごとにその後続の層及
び前段の層への結合が存在しうる)に関与するものと、
同一層内ニューロン間結合に関与するものとがある。後
者は必要に応じて、主に、後述するペースメーカーニュ
ーロンと特徴検出または特徴統合ニューロンとの結合に
用いられる。The synapse circuit S202 has an interlayer connection (a connection between a neuron on the feature detection layer 102 and a neuron on the feature integration layer 103, and each layer has a connection to a subsequent layer and a preceding layer. May be involved)
Some are involved in connections between neurons in the same layer. The latter is mainly used, if necessary, mainly for coupling a pacemaker neuron described later with a feature detection or feature integration neuron.
【0050】いわゆる、興奮性結合はシナプス回路S20
2において、パルス信号の増幅を行い、抑制性結合は逆
に減衰を与えるものである。パルス信号により情報の伝
達を行う場合、増幅及び減衰は、パルス信号の振幅変
調、パルス幅変調、位相変調、周波数変調のいずれによ
っても実現することができる。The so-called excitatory connection is caused by the synaptic circuit S20.
In 2, amplification of the pulse signal is performed, and the suppressive coupling is to provide attenuation in reverse. When transmitting information by a pulse signal, amplification and attenuation can be realized by any of amplitude modulation, pulse width modulation, phase modulation, and frequency modulation of the pulse signal.
【0051】本実施形態においては、シナプス結合回路
S202は、主にパルスの位相変調素子として用い、信号
の増幅は、特徴に固有な量としてのパルス到着時間の実
質的な進み、減衰は実質的な遅れとして変換される。即
ち、シナプス結合は後述するように出力先のニューロン
での特徴に固有な時間軸上の到着位置(位相)を与え、定
性的には興奮性結合はある基準位相に対しての到着パル
スの位相の進みを、抑制性結合では同様に遅れを与える
ものである。In the present embodiment, the synapse coupling circuit S202 is mainly used as a pulse phase modulation element, and the amplification of the signal is substantially advancing the pulse arrival time as an amount unique to the feature, and the attenuation is substantially the same. It is converted as a long delay. That is, the synaptic connection gives the arrival position (phase) on the time axis peculiar to the feature of the output destination neuron as described later, and qualitatively, the excitatory connection gives the phase of the arrival pulse with respect to a certain reference phase. In the case of inhibitory coupling.
【0052】図2の(A)において、各ニューロン素子n
jは、パルス信号(スパイクトレイン)を出力し、後述
する様ないわゆるintegrate-and-fire型のニューロン素
子を用いている。なお、図2の(C)に示すように、シ
ナプス結合回路とニューロン素子とを、それぞれまとめ
て回路ブロックを構成してもよい。In FIG. 2A, each neuron element n
j outputs a pulse signal (spike train) and uses a so-called integral-and-fire type neuron element as described later. Note that, as shown in FIG. 2C, a circuit block may be configured by integrating the synapse connection circuit and the neuron element.
【0053】図1のWhere経路内の各特徴位置検出
層は、What経路の特徴検出層等の出力を受けて、デ
ータ入力層上の位置関係を保持し粗くサンプリングされ
た格子点上の各点で、What経路上の特徴抽出結果の
うち認識に有用な成分(認識カテゴリのパターンから予
め登録してあるもの)に対応するニューロンのみがフィ
ルタリングなどにより応答する。Each of the feature position detection layers in the Where path shown in FIG. 1 receives the output of the What path feature detection layer and the like, retains the positional relationship on the data input layer, and stores each point on the coarsely sampled grid points. Therefore, only neurons corresponding to components useful for recognition (pre-registered from the pattern of the recognition category) out of the feature extraction results on the What path respond by filtering or the like.
【0054】例えば、Where経路内の最上位層で
は、認識対象のカテゴリに対応するニューロンが格子上
に配列し、どの位置に該当する対象が存在するかを表現
する。また、Where経路内の中間層内のニューロン
は、(Where経路内の)上位層からのトップダウン
の入力(又はWhat経路上位層→Where経路上位
層→Where経路中間層のルートによる入力)を受け
て対応する認識対象の存在位置を中心として配置しうる
特徴が検出された場合にのみに応答するように感度調整
等が行われるようにすることができる。For example, in the uppermost layer in the Where path, neurons corresponding to the category of the recognition target are arranged on a lattice, and the position where the corresponding target exists is expressed. Further, the neurons in the hidden layer in the Where path receive a top-down input from the upper layer (in the Where path) (or an input by a route of the upper path of the What path → the upper layer of the Where path → the intermediate layer of the Where path). Thus, the sensitivity adjustment or the like can be performed so as to respond only when a feature that can be arranged with the corresponding recognition target existing position as the center is detected.
【0055】検出された特徴間の位置関係(または位置
情報)が保持される階層的特徴検出をWhere経路で
行う際には、受容野構造が局所的(例えば、楕円形状)
であってサイズが上位層ほど徐々に大きくなる(また
は、中間層から上位層にかけてはセンサー面上の1画素
より大きいサイズであって一定である)ように構成すれ
ば、特徴要素(図形要素、図形パターン)間の位置関係
はセンサー面上での位置関係をある程度保存しつつ、各
層において各特徴要素(図形要素)が検出されるように
することができる。When performing hierarchical feature detection in which the positional relationship (or positional information) between the detected features is retained along the Where path, the receptive field structure is locally (eg, elliptical).
If the configuration is such that the size gradually increases in the upper layer (or the size is larger than one pixel on the sensor surface from the middle layer to the upper layer and is constant), the characteristic elements (graphic elements, graphic elements, The positional relationship between the graphic patterns can be such that each feature element (graphic element) is detected in each layer while preserving the positional relationship on the sensor surface to some extent.
【0056】なお、Where経路の他の形態として
は、階層的に上位層ほど受容野サイズが大きくなり、最
上位層では検出された対称のカテゴリに対応するニュー
ロンのうち、最大値を出力するものだけが発火するよう
に構成された神経回路網でもよい。このような系では、
データ入力層での配置関係(空間的位相)に関する情報
を最上位層(及び中間の各層)においてもある程度保存
するようになっている。As another form of the Where path, the receptive field size becomes larger in the upper layer hierarchically, and the maximum value is output from the neurons corresponding to the detected symmetric category in the uppermost layer. May be a neural network configured to fire only. In such a system,
Information on the arrangement relationship (spatial phase) in the data input layer is also stored to some extent in the uppermost layer (and each intermediate layer).
【0057】また、他のネットワーク構成として、図1
7に示すネットワークの構成(図1とWhat経路について
は受容野サイズを除いて同じ)では、逆に特徴統合層は
特徴カテゴリの空間配置関係を高次特徴まで保存するた
め、上位層でも受容野のサイズは一定レベル以下に保つ
ようになっている。このため、特徴位置検出層を設定せ
ずに特徴統合層より注視領域設定制御層108へのフィー
ドバック結合を行っている。As another network configuration, FIG.
In the network configuration shown in FIG. 7 (the same as FIG. 1 except for the receptive field size except for the receptive field size), on the contrary, the feature integration layer stores the spatial arrangement relation of the feature category up to the higher-order features, so that the receptive field is also stored in the upper layer. The size is kept below a certain level. Therefore, feedback coupling from the feature integration layer to the gaze area setting control layer 108 is performed without setting the feature position detection layer.
【0058】ニューロン素子 次に各層を構成するニューロンについて説明する。各ニ
ューロン素子はいわゆるintegrate-and-fireニューロン
を基本として拡張モデル化したもので、入力信号(アク
ションポテンシャルに相当するパルス列)を時空間的に
線形加算した結果が閾値を越したら発火し、パルス状信
号を出力する点ではいわゆるintegrate-and-fireニュー
ロンと同じである。[0058] will be described neuron element then neurons constituting each layer. Each neuron element is an extended model based on the so-called integral-and-fire neuron, and fires when the result of spatiotemporal linear addition of the input signal (pulse train corresponding to the action potential) exceeds the threshold, and the pulse shape It is the same as a so-called integral-and-fire neuron in that it outputs a signal.
【0059】図2の(B)は、ニューロン素子としての
パルス発生回路(CMOS回路)の動作原理を表す基本
構成の一例を示し、公知の回路(IEEE Trans. on Neural
Networks Vol. 10, pp.540)を拡張したものである。こ
こでは、入力として興奮性と抑制性の入力を受けるもの
として構成されている。FIG. 2B shows an example of a basic configuration representing the operation principle of a pulse generation circuit (CMOS circuit) as a neuron element, and a known circuit (IEEE Trans. On Neural).
Networks Vol. 10, pp. 540). Here, it is configured to receive excitatory and inhibitory inputs as inputs.
【0060】以下、回路の動作原理について説明する。
興奮性入力側のキャパシタC1及び抵抗R1回路の時定数
は、キャパシタC2及び抵抗R2回路の時定数より小さ
く、定常状態では、トランジスタT1,T2,T3は遮断されて
いる。なお、抵抗は実際には、能動負荷たるトランジス
タで構成される。C1の電位が増加し、C2のそれよりトラ
ンジスタT1の閾値だけ上回ると、T1はアクティブにな
り、更にトランジスタT 2,T3をアクティブにする。ト
ランジスタT2,T3は、電流ミラー回路を構成し、図2
の(B)の回路の出力は、不図示の出力回路によりキャ
パシタC1側から出力される。キャパシタC2の電荷蓄積
量が最大となるとトランジスタT1は遮断され、その結
果としてトランジスタT2及びT3も遮断され、上記正の
フィードバックは0となる様に構成されている。The operation principle of the circuit will be described below.
Excitatory input side capacitor C1And resistance R1Circuit time constant
Is the capacitor CTwoAnd resistance RTwoSmaller than circuit time constant
In the steady state, the transistor T1, TTwo, TThreeIs cut off
I have. Note that the resistor is actually a transistor that is an active load.
Data. C1Increases the potential of CTwoTiger than that of
Transistor T1Above the threshold of1Is active
And the transistor T Two, TThreeActivate G
Lanista T2,TThreeConstitutes a current mirror circuit, and FIG.
(B) is output by an output circuit (not shown).
Pasita C1Output from the side. Capacitor CTwoCharge accumulation
When the amount becomes maximum, the transistor T1Is shut off and the
As a result transistor TTwoAnd TThreeIs also cut off and positive
The feedback is configured to be zero.
【0061】いわゆる不応期にはキャパシタC2は放電
し、C1の電位がC2の電位よりT1の閾値分より大とな
らない限り、ニューロンは応答しない。キャパシタC1,C
2の交互充放電の繰り返しにより周期的なパルスが出力
され、その周波数は一般的には興奮性入力のレベルに対
応してきまる。但し、不応期が存在することにより、最
大値で制限されるようにすることもできるし、一定周波
数を出力するようにもできる。[0061] a so-called capacitor C 2 is the refractory period is discharged, as long as the potential of the C 1 does not become larger than the threshold amount of T 1 than the potential of the C 2, neurons do not respond. Capacitor C 1 , C
A periodic pulse is output by repeating the alternate charging and discharging of 2 , and its frequency generally depends on the level of the excitatory input. However, depending on the presence of the refractory period, it is possible to limit the maximum value or to output a constant frequency.
【0062】キャパシタの電位、従って電荷蓄積量は基
準電圧制御回路(時間窓重み関数発生回路)により、時間
的に制御される。この制御特性を反映するのが、入力パ
ルスに対する後述の時間窓内での重み付き加算である
(図7参照)。この基準電圧制御回路は、後述するペー
スメーカニューロンからの入力タイミング(又は、後続
層のニューロンとの相互結合入力)に基づき、基準電圧
信号(図7の(B)の重み関数に相当)を発生する。The potential of the capacitor, that is, the charge storage amount, is temporally controlled by a reference voltage control circuit (time window weight function generation circuit). Reflecting this control characteristic is weighted addition to an input pulse within a later-described time window (see FIG. 7). This reference voltage control circuit generates a reference voltage signal (corresponding to a weighting function of FIG. 7B) based on an input timing from a pacemaker neuron described later (or a mutual coupling input with a neuron in a subsequent layer). .
【0063】抑制性の入力は本実施形態においては必ず
しも要しない場合があるが、後述するペースメーカニュ
ーロンから特徴検出層ニューロンへの入力を抑制性とす
ることにより、出力の発散(飽和)を防ぐことができ
る。In some cases, the input of suppressiveness is not necessarily required in the present embodiment. However, the divergence (saturation) of the output can be prevented by making the input from the pacemaker neuron to the feature detection layer neuron to be suppressive. Can be.
【0064】一般的に、入力信号の上記総和と出力レベ
ル(パルス位相、パルス周波数、パルス幅など)の関係
は、そのニューロンの感度特性によって変化し、また、
その感度特性は上位層からのトップダウンの入力により
変化させることができる。以下では、説明の便宜上、入
力信号総和値に応じたパルス出力の周波数は急峻に立ち
上がるように回路パラメータが設定されているものとし
(従って周波数ドメインでは殆ど2値)、パルス位相変
調により、出力レベル(位相変調を加えたタイミングな
ど)が変動するものとする。In general, the relationship between the sum of the input signals and the output level (pulse phase, pulse frequency, pulse width, etc.) changes depending on the sensitivity characteristics of the neuron.
The sensitivity characteristic can be changed by a top-down input from an upper layer. In the following, for convenience of explanation, it is assumed that the circuit parameters are set so that the frequency of the pulse output corresponding to the total value of the input signal rises sharply (thus, almost in binary in the frequency domain), and the output level is determined by pulse phase modulation. (Such as the timing at which phase modulation is applied).
【0065】また、パルス位相の変調手段としては、後
述する図5に示すような回路を付加して用いてもよい。
これにより、時間窓内の重み関数で上記基準電圧が制御
される結果、このニューロンからのパルス出力の位相が
変化し、この位相をニューロンの出力レベルとして用い
ることができる。As a pulse phase modulating means, a circuit as shown in FIG. 5 to be described later may be added and used.
As a result, the phase of the pulse output from the neuron changes as a result of the reference voltage being controlled by the weight function within the time window, and this phase can be used as the output level of the neuron.
【0066】シナプス結合でパルス位相変調を受けたパ
ルスについての時間的積分特性(受信感度特性)を与え
る図7の(B)に示すような重み関数の極大値に相当す
る時刻τw1は、一般的にシナプス結合で与えられる特徴
に固有なパルスの到着予定時刻τs1より時間的に早く設
定される。その結果、到着予定時刻より一定範囲で早く
(図7(B)の例では、到着の早すぎるパルスは減衰され
る)到着するパルスは、それを受け取るニューロンで
は、高い出力レベルを持ったパルス信号として時間的に
積分される。重み関数の形状はガウシアン等の対称形に
限らず、非対称形状であってもよい。なお、上述した趣
旨より、図7の(B)の各重み関数の中心は、パルス到
着予定時刻ではないことを注記しておく。The time τ w1 corresponding to the maximum value of the weighting function as shown in FIG. 7B that gives the time integration characteristic (reception sensitivity characteristic) of the pulse subjected to the pulse phase modulation by the synaptic connection is generally The time is set earlier than the estimated arrival time τ s1 of the pulse unique to the feature given by the synaptic connection. As a result, a pulse arriving earlier within a certain range from the estimated arrival time (in the example of FIG. 7B, a pulse that arrives too early is attenuated) is a pulse signal having a high output level in the neuron receiving it. Is integrated over time. The shape of the weight function is not limited to a symmetric shape such as Gaussian, but may be an asymmetric shape. It should be noted that the center of each weighting function in FIG. 7B is not the expected pulse arrival time for the above-described purpose.
【0067】また、ニューロン出力(シナプス前)の位
相は、後述するように時間窓の始期を基準とし、その基
準時からの遅れ(位相)は基準パルス(ペースメーカ出
力その他による)を受けた時の電荷蓄積量により決まる
ような出力特性を有する。このような出力特性を与える
回路構成の詳細については、本発明の主眼とする所では
ないので省略する。シナプス後のパルス位相は当該シナ
プスにより与えられる固有の位相変調量にシナプス前の
位相を加算したものとなる。The phase of the neuron output (before synapse) is based on the beginning of the time window as described later, and the delay (phase) from the reference time is the time when a reference pulse (by a pacemaker output or the like) is received. It has output characteristics determined by the amount of charge storage. The details of the circuit configuration for providing such output characteristics will not be described because they are not the focus of the present invention. The post-synaptic pulse phase is obtained by adding the pre-synaptic phase to the unique phase modulation amount given by the synapse.
【0068】なお、窓関数などを用いることにより得ら
れる入力の総和値が閾値を越えたときに、所定タイミン
グ遅れて発振出力を出すような公知の回路構成を用いて
もよい。When the sum of inputs obtained by using a window function or the like exceeds a threshold value, a known circuit configuration that outputs an oscillation output with a predetermined timing delay may be used.
【0069】ニューロン素子の構成としては、特徴検出
層102または特徴統合層103に属するニューロンであっ
て、後述するペースメーカニューロンの出力タイミング
に基づき発火パターンが制御される場合には、ペースメ
ーカーニューロンからのパルス出力を受けた後、当該ニ
ューロンが、前段の層の受容野から受ける入力レベル
(上記の入力の単純または重み付き総和値)に応じた位
相遅れをもって、パルス出力するような回路構成であれ
ばよい。この場合、ペースメーカーニューロンからのパ
ルス信号が入力される前では、入力レベルに応じて各ニ
ューロンは互いにランダムな位相でパルス出力する過渡
的な遷移状態が存在する。The configuration of the neuron element is a neuron belonging to the feature detection layer 102 or the feature integration layer 103. If the firing pattern is controlled based on the output timing of a pacemaker neuron described later, a pulse from the pacemaker neuron is used. After receiving the output, the circuit configuration may be such that the neuron outputs a pulse with a phase delay according to the input level (simple or weighted sum of the above input) received from the receptive field of the preceding layer. . In this case, before the pulse signal is input from the pacemaker neuron, there is a transitional transition state in which the neurons output pulses at random phases with respect to each other according to the input level.
【0070】また、後述するようにペースメーカニュー
ロンを用いない場合には、ニューロン間(特徴検出層と
特徴統合層の間)の相互結合とネットワークダイナミッ
クスによりもたらされる同期発火信号を基準とし、上述
したような入力レベルに応じた特徴検出ニューロンの出
力パルスの発火タイミングの制御がなされるような回路
構成であってもよい。Further, when a pacemaker neuron is not used as described later, the above-mentioned synchronizing and firing signals generated by the mutual connection between neurons (between the feature detection layer and the feature integration layer) and network dynamics are used as a reference. The circuit configuration may be such that the firing timing of the output pulse of the feature detection neuron is controlled according to such an input level.
【0071】特徴検出層102のニューロンは、前述した
ように特徴カテゴリに応じた受容野構造を有し、前段の
層(入力層101または特徴統合層103)のニューロンから
の入力パルス信号(電流値または電位)の時間窓関数に
よる荷重総和値(後述)が閾値以上となったとき、その
総和値に応じて、例えばシグモイド関数等の一定レベル
に漸近的に飽和するような非減少かつ非線形な関数、即
ちいわゆるsquashing関数値をとるような出力レベル
(ここでは位相変化で与えるが、周波数、振幅、パルス
幅基準での変化となる構成でもよい)でパルス出力を行
う。The neurons of the feature detection layer 102 have a receptive field structure according to the feature category as described above, and input pulse signals (current values) from the neurons of the preceding layer (the input layer 101 or the feature integration layer 103). Or a potential), a non-decreasing and non-linear function that asymptotically saturates to a certain level, such as a sigmoid function, according to the sum when the weighted sum (described later) of the time window function exceeds a threshold value. That is, pulse output is performed at an output level that takes a so-called squashing function value (in this case, the output is given by a phase change, but may be a change based on frequency, amplitude, and pulse width).
【0072】特徴検出層(1,0)での処理(Gabor wavelet
変換等による低次特徴抽出) 特徴検出層(1,0)には、局所的な、ある大きさの領域
で所定の空間周波数を持ち、方向成分が垂直であるよう
なパターンの構造(低次特徴)を検出するニューロンN1
があるとすると、データ入力層101上においてニューロ
ンN1の受容野内に該当する構造が存在すれば、そのコン
トラストに応じた位相でパルス出力する。このような機
能はGabor filterにより実現することができる。以下、
特徴検出層(1,0)の各ニューロンが行う特徴検出フィ
ルタ機能について説明する。Processing in the feature detection layer (1,0) (Gabor wavelet
( Lower-order feature extraction by transformation, etc.) The feature detection layer (1, 0) has a pattern structure (lower-order feature) having a predetermined spatial frequency in a local area of a certain size and having a vertical directional component. Neuron N1 to detect features)
If a corresponding structure exists in the receptive field of the neuron N1 on the data input layer 101, a pulse is output at a phase corresponding to the contrast. Such a function can be realized by a Gabor filter. Less than,
The feature detection filter function performed by each neuron of the feature detection layer (1, 0) will be described.
【0073】特徴検出層(1,0)では、多重スケール、
多重方向成分のフィルタセットで表されるGaborウエー
ブレット変換を行うものとし、層内の各ニューロン(ま
たは複数ニューロンからなる各グループ)は、所定の G
aborフィルタ機能を有する。In the feature detection layer (1, 0), multi-scale
It is assumed that Gabor wavelet transform represented by a filter set of multi-directional components is performed, and each neuron (or each group including a plurality of neurons) in a layer has a predetermined G value.
It has an abor filter function.
【0074】特徴検出層102では、スケールレベル(解
像度)が一定で方向選択性の異なる複数のGabor関数の
畳み込み演算カーネルに対応する受容野構造を有するニ
ューロンからなる複数のニューロン集団を一まとめにし
て一つのチャネルを形成する。その際、図13に示すよ
うに、同一チャネルを形成するニューロン群は方向選択
性が異なり、サイズ選択性が同一のニューロン群どうし
を互いに近接した位置に配置してもよいし、図12のよ
うに同一の特徴カテゴリに属し、異なる処理チャネルに
属するニューロン群どうしが互いに近接配置されるよう
にしてもよい。In the feature detection layer 102, a plurality of neuron groups each having a receptive field structure corresponding to a convolution operation kernel of a plurality of Gabor functions having a constant scale level (resolution) and different direction selectivity are grouped together. Form one channel. At this time, as shown in FIG. 13, neuron groups forming the same channel have different direction selectivity, and neuron groups having the same size selectivity may be arranged at positions close to each other, as shown in FIG. The neuron groups belonging to the same feature category and belonging to different processing channels may be arranged close to each other.
【0075】これは、集団的符号化における後述する結
合処理の都合上、上記各図に示すような配置構成にした
方が、回路構成上実現しやすいことによる。図12、1
3の回路構成の詳細についても後で説明する。This is because the arrangement configuration shown in each of the above figures is easier to realize in terms of the circuit configuration, for the sake of the later-described combining process in collective coding. FIG. 12, 1
The details of the circuit configuration of No. 3 will also be described later.
【0076】なお、Gabor wavelet変換を神経回路網で
行う方法の詳細については、Daugman(1988)による文献
(IEEE Trans. on Acoustics, Speech, and Signal Pro
cessing, vol.36, pp.1169-1179)を参照されたい。The details of the method of performing the Gabor wavelet conversion in the neural network are described in the literature by Daugman (1988) (IEEE Trans. On Acoustics, Speech, and Signal Pro
cessing, vol. 36, pp. 1169-1179).
【0077】Gaborウエーブレットは、以下の式(1)
で与えられるように、一定の方向成分と空間周波数とを
有する正弦波をガウシアン関数で変調した形状を有し、
スケーリングレベルのインデックスmと方向成分のイン
デックスnで特定される。ウエーブレットとしてこのフ
ィルタのセットは互いに相似の関数形状を有し、また主
方向と大きさが互いに異なる。このウエーブレットは空
間周波数ドメインと実空間ドメインで関数形が局在して
いること、位置と空間周波数に関する同時不確定性が最
小となり、実空間でも周波数空間でも最も局在した関数
であることが知られている(J,G.Daugman (1985), Unce
rtainty relation for resolution in space, spatial
frequency, and orientation optimized by two-dimens
ional visual cortical filters, Journal of Optical
Society of America A, vol.2, pp. 1160-1169)。The Gabor wavelet is given by the following equation (1)
Has a shape obtained by modulating a sine wave having a constant directional component and a spatial frequency with a Gaussian function, as given by
It is specified by the index m of the scaling level and the index n of the direction component. As a wavelet, this set of filters has similar functional shapes and different main directions and sizes. This wavelet is that the function form is localized in the spatial frequency domain and the real space domain, the simultaneous uncertainty regarding the position and the spatial frequency is minimized, and it is the function that is most localized in the real space and the frequency space Known (J, G. Daugman (1985), Unce
rtainty relation for resolution in space, spatial
frequency, and orientation optimized by two-dimens
ional visual cortical filters, Journal of Optical
Society of America A, vol.2, pp. 1160-1169).
【0078】[0078]
【外1】 [Outside 1]
【0079】ここで、(x,y)が画像中の位置、aはスケー
リングファクター、θnはフィルタの方向成分を表し、W
は基本空間周波数、σx, σyはフィルタ関数のx方向、
y方向の広がりの大きさを与えるパラメータである。本
実施形態ではθnは6方向で0度、30度、60度、9
0度、120度、150度の値をとり、aは2とし、mは
1から3までの値をとる整数として与える。Here, (x, y) is a position in the image, a is a scaling factor, θ n is a directional component of the filter, and W
Is the fundamental spatial frequency, σ x and σ y are the x directions of the filter function,
It is a parameter that gives the size of the spread in the y direction. In the present embodiment, θ n is 0 degree, 30 degrees, 60 degrees, 9 in six directions.
Taking values of 0 degrees, 120 degrees, and 150 degrees, a is set to 2 and m is given as an integer taking a value of 1 to 3.
【0080】フィルタの特性を定めるパラメータσx,
σy、および、aはフーリエドメインで互いに適切に均質
に重なり合うことにより、特定の空間周波数及び方向へ
の偏り(感度)がないように設定されるのが望ましい。そ
のために例えば、フーリエ変換後の振幅最大値に対する
半値レベルがフーリエドメインで互いに接するように設
計すると、The parameters σ x , which determine the characteristics of the filter,
σ y and a are desirably set such that there is no bias (sensitivity) to a specific spatial frequency and direction by appropriately and homogeneously overlapping each other in the Fourier domain. Therefore, for example, if the half-value levels for the amplitude maximum value after the Fourier transform are designed to be in contact with each other in the Fourier domain,
【0081】[0081]
【外2】 となる。ここに、UH, ULはウエーブレット変換でカバー
する空間周波数帯域の最大値、最小値であり、Mはその
範囲でのスケーリングレベル数を与える。[Outside 2] Becomes Here, U H and U L are the maximum and minimum values of the spatial frequency band covered by the wavelet transform, and M gives the number of scaling levels in that range.
【0082】また、式(1)で与えられる特徴検出細胞
の受容野の構造は、σx, σyで決まる所定の幅のスケー
ル選択性及び方向選択性を有する。即ち、式(1)のフ
ーリエ変換はガウシアン関数形状となるので、特定の空
間周波数及び方向にピークチューニング(感度)特性を
与える。Gaborフィルタカーネルのサイズ(広がり)はス
ケールインデックスmに応じて変わるので、異なるスケ
ールインデックスを有する Gaborフィルタは、異なるサ
イズ選択性を有する。後述する集団的符号化において
は、主にサイズ選択性に関して感度特性が互いに重なり
合う複数の特徴検出細胞からの出力を統合する。The structure of the receptive field of the feature detecting cell given by equation (1) has scale selectivity and direction selectivity of a predetermined width determined by σ x and σ y . That is, since the Fourier transform of the equation (1) has a Gaussian function shape, a peak tuning (sensitivity) characteristic is given to a specific spatial frequency and direction. Gabor filters with different scale indices have different size selectivities, because the size (spread) of the Gabor filter kernel changes according to the scale index m. In collective coding described later, outputs from a plurality of feature detection cells whose sensitivity characteristics mainly overlap with each other with respect to size selectivity are integrated.
【0083】各フィルタgmn(x,y)と入力濃淡画像との2
次元畳み込み演算を行うことによりGaborウエーブレッ
ト変換が行われる。即ち、Each of the filters g mn (x, y) and the input grayscale image
The Gabor wavelet transform is performed by performing a dimensional convolution operation. That is,
【0084】[0084]
【外3】 [Outside 3]
【0085】ここにIは入力画像、WmnはGaborウエーブ
レット変換係数である。Wmn (m=1,2,3; n=1,..., 6)の
セットを特徴ベクトルとして各点で求める。'*'は複素
共役をとることを示す。Here, I is an input image, and W mn is a Gabor wavelet transform coefficient. A set of W mn (m = 1, 2, 3; n = 1,..., 6) is obtained at each point as a feature vector. ' * ' Indicates complex conjugate.
【0086】特徴検出層(1,0)の各ニューロンは、gmn
に対応する受容野構造を有する。同じスケールインデッ
クスmを有するgmnは同じサイズの受容野を有し、演算
上は対応するカーネルgmnサイズもスケールインデック
スに応じた大きさを有するようにしてある。ここでは、
最も粗いスケールから順に入力画像上の30×30、1
5×15、7×7のサイズとした。Each neuron of the feature detection layer (1, 0) is represented by g mn
Has a receptive field structure corresponding to G mn having the same scale index m has the same size receptive field, and the corresponding kernel g mn size has a size corresponding to the scale index in operation. here,
30 × 30, 1 on the input image in order from the coarsest scale
The size was 5 × 15, 7 × 7.
【0087】各ニューロンは、分布重み係数と画像デー
タとの積和入力を行って得られるウエーブレット変換係
数値の非線型squashing関数となる出力レベル(ここで
は位相基準とする;但し、周波数、振幅、パルス幅基準
となる構成でもよい)でパルス出力を行う。この結果、
この層(1,0)全体の出力として、式(4)のGaborwa
velet変換が行われたことになる。Each neuron outputs a non-linear squashing function of a wavelet transform coefficient value obtained by performing a product-sum input of a distribution weighting coefficient and image data (here, a phase reference is used; , A pulse width reference may be used). As a result,
As an output of the entire layer (1, 0), Gaborwa of Expression (4) is used.
This means that velet conversion has been performed.
【0088】特徴検出層での処理(中次、高次特徴抽
出) 一方、後続の特徴検出層((1,1)、(1,2)、…、
(1,N))の各ニューロンは、上記特徴検出層(1,0)とは
異なり、認識対象のパターンに固有の特徴を検出する受
容野構造をいわゆるHebb学習則等により形成する。後の
層ほど特徴検出を行う局所的な領域のサイズが認識対象
全体のサイズに段階的に近くなり、幾何学的には中次ま
たは高次の特徴を検出する。 Processing at the feature detection layer (medium order, higher order feature extraction
Out), while the subsequent feature detection layer ((1,1), (1,2), ...,
Unlike the feature detection layer (1,0), each neuron of (1, N) forms a receptive field structure for detecting a feature unique to the pattern to be recognized by a so-called Hebb learning rule or the like. The size of the local region where the feature detection is performed gradually becomes closer to the size of the entire recognition target in a later layer, and a medium-order or higher-order feature is geometrically detected.
【0089】例えば、顔の検出認識を行う場合には中次
(または高次)の特徴とは顔を構成する目、鼻、口等の
図形要素のレベルでの特徴を表す。異なる処理チャネル
間では、同じ階層レベル(検出される特徴の複雑さが同
レベル)であれば、検出される特徴の違いは、同一カテ
ゴリであるが、互いに異なるスケールで検出されたもの
であることにある。例えば、中次の特徴としての「目」
は異なる処理チャネルでは、サイズの異なる「目」とし
て検出を行う。即ち、画像中の与えられたサイズの
「目」に対してスケールレベル選択性の異なる複数の処
理チャネルにおいて検出が試みられる。For example, when performing face detection / recognition, the middle-order (or higher-order) features represent features at the level of a figure element such as an eye, a nose, and a mouth that constitute the face. If different processing channels have the same hierarchical level (the complexity of detected features is the same level), the detected features differ in the same category but are detected on different scales. It is in. For example, "eye" as a secondary feature
In different processing channels, detection is performed as "eyes" having different sizes. That is, detection is attempted in a plurality of processing channels with different scale level selectivity for a given size "eye" in the image.
【0090】なお、特徴検出層ニューロンは一般的に
(低次、高次特徴抽出に依らず)、出力の安定化のために
抑制性(分流型抑制:shunting inhibition)の結合を前
段の層出力に基づいて受けるような機構を有してもよ
い。Note that the feature detection layer neuron is generally
A mechanism may be provided to receive the coupling of the shunting inhibition (shunting inhibition) based on the output of the preceding layer in order to stabilize the output (independent of low-order and higher-order feature extraction). .
【0091】選択的注視処理 注視領域設定制御層108の構成及び動作について、以下
に説明する。同層で設定される注視領域のサイズは、初
期状態では、予め設定される前述した複数のスケールレ
ベルのうち最大サイズの処理チャネルについて画面全体
とする。 Selective Gaze Processing The structure and operation of the gaze area setting control layer 108 will be described below. In the initial state, the size of the gaze area set in the same layer is set to be the entire screen for the processing channel having the largest size among the plurality of previously set scale levels.
【0092】具体的には、図18に示すように、注視領
域制御層には入力データの所定の複数位置(特徴検出が
行われる位置)に対応する注視制御ニューロン1801が配
列される。図18において楕円で示してある領域は、設
定された注視点、及び対応する各層上の領域(説明の便
宜上、各層に付き一つだけ図示しているが、一般的に
は、複数の特徴カテゴリで検出されるので各層で複数の
対応領域が存在しうる;当該領域のサイズは各層の受容
野サイズと同程度)を模式的に表す。More specifically, as shown in FIG. 18, gaze control neurons 1801 corresponding to a plurality of predetermined positions of input data (positions at which feature detection is performed) are arranged in the gaze area control layer. In FIG. 18, an area indicated by an ellipse is a set point of gaze and a corresponding area on each layer (for convenience of explanation, only one is shown for each layer, but in general, a plurality of feature categories , There may be a plurality of corresponding regions in each layer; the size of the region is approximately the same as the size of the receptive field in each layer).
【0093】図18において、特徴検出層から特徴位置
検出層へ向かう太い矢印は、特徴位置検出層の各ニュー
ロンが、該当する特徴検出層ニューロンの出力を受ける
ことを模式的に示す。各特徴位置検出層ニューロンは、
一般的に特徴統合層ニューロンよりもサイズの小さい受
容野を有し、特徴統合層と同様にサブサンプリングを行
うことにより、特徴統合よりも各特徴カテゴリ間の空間
的配置情報をより良く保持することができる。In FIG. 18, a thick arrow pointing from the feature detection layer to the feature position detection layer schematically indicates that each neuron of the feature position detection layer receives an output of the corresponding feature detection layer neuron. Each feature position detection layer neuron
In general, it has a receptive field smaller in size than the feature integration layer neuron, and performs sub-sampling in the same way as the feature integration layer to better preserve spatial arrangement information between feature categories than feature integration Can be.
【0094】各注視制御ニューロン1801には、上位の特
徴位置検出層(3,2)または(3,1)からのWhere経路からの
フィードバック結合、または図17のような場合、特徴
統合層(2,2)における当該注視制御ニューロンに対応す
る位置についてのニューロンからのフィードバック結合
を介して入力される。また、注視制御ニューロンは並行
して特徴統合層(2,0)からの出力を受けてもよい。これ
ら2〜3種類の入力の所定の重み付けによる線形加算
(または非線形加算)、或いは、何れか一方からの入力
に基づく注視領域の選択制御過程(後述)の結果、選択
された特定の注視制御ニューロンが活性化し、注視領域
が決定される。Each gaze control neuron 1801 has a feedback connection from the Where path from the upper feature position detection layer (3, 2) or (3, 1), or in the case of FIG. , 2), is input via a feedback connection from the neuron for the position corresponding to the gaze control neuron. The gaze control neuron may receive an output from the feature integration layer (2, 0) in parallel. Linear addition by predetermined weighting of these two or three types of inputs
As a result of a gaze area selection control process (described later) based on an input from either (or non-linear addition) or one of them, the selected specific gaze control neuron is activated, and the gaze area is determined.
【0095】注視領域の位置は、主に最上位の特徴統合
層(2,N)又は最上位の特徴位置検出層(3,M)で検出される
最大レベルの対象の位置情報をフィードバック入力して
設定される。前者の場合(即ち、図17の構成)では、位
置情報が特徴統合層で保持される場合に限られる。注視
位置の選択方法としては、主に以下の3通りがある。 (1)上位層からのフィードバック量(或いは、複数上
位層からのフィードバック量の総和)と特徴検出層出力
(低次特徴の顕著度)の線形和(非線形和)が最大の注
視制御ニューロンが注視点位置を与える。 (2)低次の特徴顕著度マップ最大(極大)値を受けるよ
うな注視制御ニューロンが注視点位置を与える。 (3)上位層からのフィードバック量(複数のフィード
バック経路が特定注視制御ニューロンにある場合にはそ
の総和)が最大(極大)となる注視制御ニューロンが注視
点位置を与える。The position of the gaze area is mainly input by feedback inputting the position information of the object of the maximum level detected by the uppermost feature integration layer (2, N) or the uppermost feature position detection layer (3, M). Is set. In the former case (that is, the configuration in FIG. 17), only the case where the position information is held in the feature integration layer is limited. There are mainly the following three methods for selecting the gaze position. (1) The gaze control neuron with the largest linear sum (nonlinear sum) of the feedback amount from the upper layer (or the sum of the feedback amounts from a plurality of upper layers) and the output of the feature detection layer (the saliency of low-order features) Give the viewpoint position. (2) A gaze control neuron that receives a maximum (maximum) value of a low-order feature saliency map gives a gaze point position. (3) A gaze control neuron whose feedback amount from the upper layer (sum of a plurality of feedback paths in a specific gaze control neuron) is maximum (maximum) gives a gaze point position.
【0096】ここで、フィードバック量とは、特定処理
チャネルかつ特定特徴カテゴリについての上位層の特徴
位置検出層(又は特徴統合層)ニューロンの出力レベル
(またはそれに比例する量)を指す。本発明では、(1)
または(3)の場合に相当する。なお、上記(2)は公
知の方法であり、前述のような欠点がある。このよう
に、注視位置は上位層からのフィードバック量が何らか
の寄与をすることにより決定される結果、物体認識の過
程は、下位層から上位層への信号処理によるボトムアッ
プ過程と上位層から下位層へのトップダウン過程による
上位層ニューロンと下位層ニューロン間の協調作用によ
りもたらされる注視領域の設定(注視制御ニューロンの
活性化)が実現されて初めてスタートする。Here, the feedback amount is the output level of the upper layer feature position detection layer (or feature integration layer) neuron for a particular processing channel and a particular feature category.
(Or an amount proportional thereto). In the present invention, (1)
Or, it corresponds to the case of (3). The above (2) is a known method, and has the above-mentioned drawbacks. As described above, the gaze position is determined by the feedback amount from the upper layer making a certain contribution. As a result, the object recognition process includes a bottom-up process by signal processing from the lower layer to the upper layer and a lower-layer process from the upper layer to the lower layer. It starts only after the setting of the gaze area (activation of the gaze control neuron) brought about by the cooperative action between the upper layer neuron and the lower layer neuron by the top-down process to.
【0097】このため、初期の過程(初めにボトムアッ
プ過程で上位層ニューロンが信号を出力するまでの過
程)では、いわゆる「認識・検出」された状態に達せず
(この段階では、上位層では高次特徴に関するいわゆる
顕著度マップが出力された潜在化状態)、トップダウン
過程が関与することにより注視制御信号が発生した結果
に基づいて再びボトムアップ過程を経て上位層の高次特
徴の検出・統合ニューロンが出力した時点(この段階で
は、上位層において出力レベルの高いニューロンが局在
化し、まばらに存在する顕在化状態)で一通りの認識・
検出に関する動作が完結する。なお、上位層とは必ずし
も図1または図17の(2,N)層、或いは図1の(3,k)層に
限定されず、それらより下位の中間層または不図示の更
に上位の層でもよい。For this reason, in the initial process (the process until the upper-layer neuron outputs a signal in the bottom-up process first), a so-called “recognized / detected” state is not reached. A latent state in which a so-called saliency map relating to higher-order features is output), based on the result of a gaze control signal generated due to the involvement of a top-down process, detection of higher-order features in an upper layer through a bottom-up process again. At the time when the integrated neuron outputs (at this stage, neurons with a high output level are localized in the upper layer and sparsely present), a series of recognition /
The operation related to detection is completed. The upper layer is not necessarily limited to the (2, N) layer in FIG. 1 or FIG. 17 or the (3, k) layer in FIG. 1, but may be a lower intermediate layer or a higher layer (not shown). Good.
【0098】注視制御ニューロン1801の数は、必ずしも
特徴統合層(2,0)上のニューロン数(即ち、特徴検出を
行う位置の数NF0)と一致しなくてよく、例えば、最上
位の特徴位置検出層のニューロン数(NFp)と同じであ
ってもよい。前提条件として、NFp < NF0の場合、注視
制御を行うためのサンプリング点数は、低次の特徴検出
位置の数より少なくなるが、検出対象のサイズの下限値
がνS0(ここに、0<ν<1、S0は画面の全面積)と
すると、NFp<<νNF0でなければ、実用上は殆ど問題とな
らない。なお、注視制御ニューロンが受ける低次の特徴
顕著度マップは、特徴検出層(例えば、(1,0)層)からの
出力でもよい。The number of gaze control neurons 1801 does not necessarily have to match the number of neurons on the feature integration layer (2,0) (that is, the number N F0 of feature detection positions). It may be the same as the number of neurons (N Fp ) in the position detection layer. As a precondition, when N Fp <N F0 , the number of sampling points for performing gaze control is smaller than the number of low-order feature detection positions, but the lower limit of the size of the detection target is νS 0 (here, 0 Assuming that <ν <1, S 0 is the entire area of the screen), practically, there is almost no problem unless N Fp << νN F0 . Note that the low-order feature saliency map received by the gaze control neuron may be an output from a feature detection layer (for example, a (1,0) layer).
【0099】一方、注視位置の更新により設定される注
視領域のサイズは、当該注視制御ニューロン1801に対し
て最大のフィードバック量を与える最上位層ニューロン
が属する(或いは注視制御ニューロンに対応する特徴統
合層ニューロンが属するチャネルでも同じ)処理チャネ
ル(上述した(3)の場合)、または上位層からの入力と
低次特徴顕著度との線形和が最大(極大)となる注視制御
ニューロンに対応する特徴統合層ニューロンの属する処
理チャネルによって決まる、予め設定された大きさを有
する。本実施形態では、注視領域のサイズは前述した特
徴統合層(2,0)の当該処理チャネルに属するGabor フィ
ルタのカーネルサイズとする。On the other hand, the size of the gaze area set by updating the gaze position is such that the uppermost layer neuron that gives the maximum amount of feedback to the gaze control neuron 1801 belongs (or the feature integration layer corresponding to the gaze control neuron). The same applies to the channel to which the neuron belongs) The processing channel (in the case of (3) above), or the feature integration corresponding to the gaze control neuron in which the linear sum of the input from the upper layer and the low-order feature saliency is the maximum (maximum) It has a predetermined size determined by the processing channel to which the layer neuron belongs. In the present embodiment, the size of the gaze area is the kernel size of the Gabor filter belonging to the processing channel of the feature integration layer (2, 0).
【0100】注視領域設定制御層の具体的構成として
は、注視制御ニューロン1801に加えて、前述した図12
または13に示すようなチャネル処理構造において、図
16のゲーティング回路の様な構成、及び以下に示す図
19の注視位置更新制御回路1901を導入したものが考え
られる。As a specific configuration of the gaze area setting control layer, in addition to the gaze control neuron 1801,
Alternatively, in the channel processing structure shown in FIG. 13, a configuration like the gating circuit in FIG. 16 and a gaze position update control circuit 1901 shown in FIG.
【0101】このゲーティング回路は、低次特徴のマス
キング(特定の部分領域のデータのみ上位層に伝播させ
ること)に用い、かつ同ゲーティング回路は特徴統合層
(2,0)からの出力のうち、選択された特定チャネル内で
注視すべき領域を選択的に抽出して、後続のチャネルに
信号伝播させる機能を有する。このようにして、特定チ
ャネルかつ入力データ上の特定領域からの低次特徴信号
のみを伝播させることにより、注視領域の設定を行うこ
とができる。This gating circuit is used for masking low-order features (propagating only data of a specific partial area to the upper layer), and the gating circuit is used for the feature integration layer.
It has a function of selectively extracting an area to be watched in the selected specific channel from the output from (2, 0) and transmitting the signal to the subsequent channel. In this way, by setting the low-order feature signal only from the specific channel and the specific area on the input data to propagate, the gaze area can be set.
【0102】他の構成としては、ある注視制御ニューロ
ンが(例えば、上位層からのフィードバック信号により)
選択され、活性化されることにより、該当する位置の特
徴統合層(2,0)ニューロンへシナプスを介して発火促進
のパルスが伝達され、その結果、当該特徴統合層ニュー
ロンがON状態(発火可能状態:ペースメーカーニュー
ロンなどの出力を受信可能な状態、即ち、過渡的遷移状
態、または当該遷移状態が許容される状態)となるよう
なものでもよい。As another configuration, a certain gaze control neuron is operated (for example, by a feedback signal from an upper layer).
By being selected and activated, a pulse for promoting firing is transmitted to the feature integration layer (2,0) neuron at the corresponding position via a synapse, and as a result, the feature integration layer neuron is turned ON (ignition enabled) State: A state in which an output of a pacemaker neuron or the like can be received, that is, a transitional transition state or a state in which the transition state is allowed) may be used.
【0103】注視領域設定制御層108、特徴統合層(2,
0)、及び特徴検出層(1,1)の間の信号伝播経路の例を図
20、21に示す。図20、21では共に、いわゆるデ
ジタル回路の共通バスと共に設定され、スイッチ機能を
有するゲート回路2001およびそのスイッチ機能のON/
OFFを高速制御するスイッチ信号制御回路2002が用い
られている。また、図20では、注視制御ニューロン18
01は、特徴統合層(2,0)の複数ニューロン、即ち、注視
位置に相当する特徴統合層上のニューロン(以下、「注
視中心ニューロン」と称する)を中心とする領域109に属
するニューロン(当該領域サイズは統合層上の注視中心
ニューロンが属する処理チャネルに固有である)処理チ
ャネルに固有の所定サイズ領域内のニューロンとの結合
をなす。The gaze area setting control layer 108 and the feature integration layer (2,
20) and 21 show examples of signal propagation paths between the feature detection layer (1, 1). 20 and 21, both are set together with a so-called digital circuit common bus, and have a gate circuit 2001 having a switch function and ON / OFF of the switch function.
A switch signal control circuit 2002 that controls OFF at high speed is used. In FIG. 20, the gaze control neuron 18
01 denotes a plurality of neurons in the feature integration layer (2,0), that is, neurons belonging to an area 109 centered on a neuron on the feature integration layer corresponding to the gaze position (hereinafter, referred to as a “gaze center neuron”). The region size is specific to the processing channel to which the gaze-centered neuron on the integration layer belongs) and makes connections with neurons within a predetermined size region specific to the processing channel.
【0104】図20の構成では、注視制御ニューロン18
01から特徴統合層への結合を有し、注視位置はWhere経
路上の特徴位置検出層からのフィードバック量のみに基
づいて制御される(その変形構成として注視制御ニュー
ロンと特徴統合層ニューロンとは相互結合をなし、注視
位置は上記フィードバック量と特徴統合層出力に基づい
て制御される構成でもよい)。一方、図21の構成で
は、注視制御ニューロン1801は図16のゲーティング回
路に相当するゲーティング層2101への同様な結合を有
し、特徴統合層(2,0)から特徴検出層(1,1)へ向かう出力
はゲーティング層2101を介してなされる。In the configuration of FIG. 20, the gaze control neuron 18
01 has a connection from the feature integration layer to the feature integration layer, and the gaze position is controlled based only on the feedback amount from the feature position detection layer on the Where path. A configuration may be adopted in which the gaze position is controlled based on the feedback amount and the feature integration layer output). On the other hand, in the configuration of FIG. 21, the gaze control neuron 1801 has a similar connection to the gating layer 2101 corresponding to the gating circuit of FIG. 16, and changes from the feature integration layer (2,0) to the feature detection layer (1, The output to 1) is made through the gating layer 2101.
【0105】図20に示す構成では、設定された注視位
置の特徴統合層ニューロンを中心とする処理チャネルに
固有サイズの領域(一般的に円形または矩形の領域)が
活性化して、その領域に対応する特徴統合層(2,0)の出
力が特徴検出層(1,1)に伝播する。一方、図21に示す
構成では、ゲーティング層のうち設定された注視位置を
中心とする処理チャネルに固有サイズの領域のゲートだ
けがオープンし、その領域に対応する特徴統合層(2,0)
の出力が特徴検出層(1,1)に伝播する。In the configuration shown in FIG. 20, an area of a specific size (generally a circular or rectangular area) is activated in the processing channel centered on the feature integration layer neuron at the set gaze position and corresponds to the area. The output of the feature integration layer (2, 0) propagates to the feature detection layer (1, 1). On the other hand, in the configuration shown in FIG. 21, only the gate of the region of a specific size is opened in the processing channel centered on the set gaze position in the gating layer, and the feature integration layer (2,0) corresponding to the region is opened.
Is propagated to the feature detection layer (1, 1).
【0106】このゲーティング層はFPGA等により構
成され、注視制御ニューロンの各位置に対応して存在す
る論理回路の全体が、特徴統合層(2,0)と特徴検出層(1,
1)との間に存在する一般的なゲーティング回路に相当
し、注視制御ニューロンが活性化することにより、ゲー
ティング層の対応する位置にある論理回路ユニットだけ
がON状態となり、信号が後続層に伝達される。This gating layer is composed of an FPGA or the like, and the entire logic circuit corresponding to each position of the gaze control neuron is composed of the feature integration layer (2,0) and the feature detection layer (1,2).
1), the gaze control neuron is activated, and only the logic circuit unit at the corresponding position in the gating layer is turned ON, and the signal is transmitted to the subsequent layer. Is transmitted to
【0107】設定される注視領域のサイズは、既に説明
したように上述の活性化した注視制御ニューロンに対応
する特徴統合層ニューロンの属する処理チャネルに応じ
て決まる。例えば、対応する特徴統合層ニューロンが図
12または13の処理チャネル1に属するとすると、予
め決められたサイズのうち最大のものとなる。The size of the gaze area to be set is determined according to the processing channel to which the feature integration layer neuron corresponding to the activated gaze control neuron belongs as described above. For example, if the corresponding feature integration layer neuron belongs to the processing channel 1 of FIG. 12 or 13, it will be the largest of the predetermined sizes.
【0108】次に、注視位置の更新制御の機構について
説明する。上述した注視制御機構の(3)の場合では、
最初に設定した後の注視点位置は、基本的には最新の注
視位置の一定範囲内の近傍領域での上位層から各注視制
御ニューロンが受けるフィードバック量の大きさ(フィ
ードバック量の最大値の次の大きさから)の順に更新さ
れる。また、上述した注視制御機構(1)の場合には、
以下に示すような評価値Gfの値の順に位置が更新され
る。Next, a mechanism for updating the gaze position will be described. In the case of the above-mentioned gaze control mechanism (3),
The gaze point position after the first setting is basically determined by the magnitude of the feedback amount received by each gaze control neuron from the upper layer in a region within a certain range of the latest gaze position (next to the maximum value of the feedback amount). Are updated in the order of). In the case of the above-mentioned gaze control mechanism (1),
Position in the order of the evaluation value G f as shown below are updated.
【0109】Gf=η1Sf+η2SFB,f (5)G f = η 1 S f + η 2 S FB, f (5)
【0110】ここに、Gfは特徴fに関する評価値であっ
て、Sfは下位の特徴統合層からの特徴fに関する顕著
度、SFB,fは最上位層または中間の特徴検出層で検出さ
れた特徴fに関する注視制御ニューロン1801へのフィー
ドバック量、η1、η2は正の定数を示す。η1、η2は、
認識または検出の課題の性質、例えば、類似対象間の識
別など詳細な特徴比較を行う場合や、人物の顔などの特
定カテゴリに属する対象検出を行う平均的な(概略的な)
特徴比較を行う場合などに応じて適応的に変化させるこ
とができる。Here, G f is an evaluation value for the feature f, S f is the saliency of the feature f from the lower feature integration layer, and S FB, f is the detection value for the top or middle feature detection layer. The feedback amounts to the gaze control neuron 1801 relating to the obtained feature f, η 1 and η 2 are positive constants. η 1 and η 2 are
The nature of the task of recognition or detection, for example, when performing detailed feature comparison such as identification between similar objects, or average (rough) detection of objects belonging to a specific category such as a human face
It can be changed adaptively, for example, when performing feature comparison.
【0111】具体的には、前者の課題では、η1に対す
るη2の比率を小さくし、逆に後者の場合には大きくす
る。この様なη1、η2の制御は、注視制御ニューロンへ
の対応するシナプス結合を変化させることにより行われ
る。Specifically, in the former problem, the ratio of η 2 to η 1 is reduced, and conversely, in the latter case, it is increased. Such control of η 1 and η 2 is performed by changing the corresponding synaptic connection to the gaze control neuron.
【0112】図22は、注視制御ニューロンのシナプス
に付随するη1、η2の制御を行う場合の注視制御ニュー
ロン1801と注視制御ニューロンへの入力配分制御回路22
02を中心とした構成例を示す。FIG. 22 shows the gaze control neuron 1801 and the input distribution control circuit 22 for the gaze control neuron when controlling η 1 and η 2 associated with the synapse of the gaze control neuron.
An example of the configuration centered on 02 is shown.
【0113】ここに、入力配分制御回路2202は、下位層
からの低次特徴の顕著度マップ信号の入力の検知レベル
の変調に関与するシナプス2201と上位層からのフィード
バック信号の検知レベルの変調に関与するシナプス2201
の双方に結合し、外部からの制御信号(例えば、図1に
は図示していない更に上位の層から課題に関する信号と
して対象の検出モードか詳細識別モードかなどを示す信
号)に応じてη1、η2値に相当するシナプスでの位相遅
延量制御などを行う。Here, the input distribution control circuit 2202 performs the modulation of the synapse 2201 involved in the modulation of the detection level of the input of the saliency map signal of the lower-order feature from the lower layer and the modulation of the detection level of the feedback signal from the upper layer. Involved synapses 2201
Η 1 according to a control signal from the outside (for example, a signal indicating a target detection mode or a detailed identification mode as a signal relating to a problem from a higher layer not shown in FIG. 1). , Η 2 , and the like, for controlling the amount of phase delay at the synapse.
【0114】近傍領域のサイズは、入力データ上の注視
領域サイズと同程度(例えば、その10倍を越えない
値)とする。近傍領域での探索に限定したのは、処理の
高速性を保つためであり、処理速度が著しく劣化しなけ
れば、画面全体を探索範囲としてもよい。The size of the neighborhood area is set to be substantially the same as the size of the gaze area on the input data (for example, a value not exceeding 10 times the gaze area size). The reason for limiting the search to the vicinity area is to maintain the high speed of the processing. If the processing speed does not significantly deteriorate, the entire screen may be used as the search range.
【0115】次に、注視位置の逐次更新制御を行う注視
位置更新制御回路1901について説明する。この回路は、
図19に示すように、最新の注視位置に対応する注視制
御ニューロン1801へのフィードバック量の一次記憶部19
02、近傍領域内の各フィードバック量入力部1903、近傍
領域内での最新の注視位置フィードバック量に次ぐ(次
候補)フィードバック量の検出を行い、当該フィードバ
ックを受ける注視制御ニューロンを検出して活性化させ
る更新位置決定部1904等から構成される。Next, a gaze position update control circuit 1901 that performs sequential update control of the gaze position will be described. This circuit is
As shown in FIG. 19, the primary storage unit 19 of the feedback amount to the gaze control neuron 1801 corresponding to the latest gaze position
02, each feedback amount input unit 1903 in the neighboring area, detects the next (next candidate) feedback amount following the latest gaze position feedback amount in the neighboring area, detects and activates the gaze control neuron receiving the feedback And an update position determining unit 1904 to be performed.
【0116】更新位置決定手段1904は、上記一次記憶部
1902と近傍領域内フィードバック入力部1903からの入力
を受け、最新の注視制御ニューロンでのフィードバック
量とその近傍領域内でのフィードバック量との比較部19
07、後述する2次フィードバック用信号増幅部1906、及
び次候補フィードバック量検出部1905とを有し、次候補
フィードバック量検出部1905で最新のフィードバック量
に準じるフィードバック量を検出すると、2次フィード
バック用信号増幅部1906からそれに対応する注視制御ニ
ューロンに対してパルス出力を行う。The update position determining means 1904 is provided in the primary storage unit.
1902 and the input from the feedback input unit 1903 in the vicinity area, and compares the feedback amount in the latest gaze control neuron with the feedback amount in the vicinity area.
07, a secondary feedback signal amplifying unit 1906, which will be described later, and a next candidate feedback amount detecting unit 1905, and when the next candidate feedback amount detecting unit 1905 detects a feedback amount according to the latest feedback amount, the secondary feedback The signal amplifier 1906 outputs a pulse to the corresponding gaze control neuron.
【0117】最新のフィードバック量に準じるとは、具
体的には、近傍領域内でランダムにフィードバック量を
入力し、前述した方法で2つのフィードバック量を比較
した結果、その差が一定基準(閾値)範囲内、または最新
フィードバック量より比較対象のフィードバック量の方
が大きいこと(探索範囲が更新されればありえる)を指
し、これを検出することにより次の更新位置の検出が実
効的に行われる。According to the latest feedback amount, specifically, the feedback amount is randomly input in the vicinity area, and the two feedback amounts are compared by the above-described method. This indicates that the feedback amount to be compared is larger than the range or the latest feedback amount (possible if the search range is updated), and by detecting this, the next update position is effectively detected.
【0118】次に、図20、21に模式的に示す構成に
おいて、注視制御ニューロン1801と注視位置更新制御回
路1901との信号の伝達について説明する。後述するよう
に特定の注視制御ニューロン1801と注視位置更新制御回
路1901とは一時的に相互結合をなし、前述した方法によ
り選択された更新位置に該当する注視制御ニューロン
は、更新位置決定部1904からの2次フィードバック入力
(上位層から注視制御ニューロンへのフィードバック量
に比例した信号レベルを有するフィードバック信号)を
受けて活性化する(その結果、当該ニューロンに固有の
注視領域が開かれることにより、入力データ上の該当す
る領域のデータに相当する信号のみが後続層に伝達され
る)。Next, transmission of signals between the gaze control neuron 1801 and the gaze position update control circuit 1901 in the structure schematically shown in FIGS. 20 and 21 will be described. As will be described later, the specific gaze control neuron 1801 and the gaze position update control circuit 1901 temporarily form a mutual connection, and the gaze control neuron corresponding to the update position selected by the method described above is updated from the update position determination unit 1904. (A feedback signal having a signal level proportional to the amount of feedback from the upper layer to the gaze control neuron) is activated (as a result, the gaze region specific to the neuron is opened, thereby Only a signal corresponding to the data in the corresponding area on the data is transmitted to the subsequent layer).
【0119】上記の一時的な相互結合とは、ある時刻で
活性化している(即ち、後続層への信号伝達制御が行わ
れる)注視制御ニューロンに対応して存在する近傍領域
上の他の特定の注視制御ニューロンとの結合(信号の伝
播)を局所共通バスを通じて一時的に行うことである。
具体的には、近傍領域内の他の注視制御ニューロンのう
ち、一定時間範囲(例えば、十数ミリ秒オーダー)内で一
つのニューロン(ランダムな位置にある)だけが自発的に
発火出力し、そのスパイクパルスが共通バスを通って活
性化している注視制御ニューロンに到達する結果、当該
時間範囲内だけ、既に活性化している注視位置更新制御
回路1901とのコミュニケーションチャネルが確立するも
のとする。[0119] The above-mentioned temporary mutual coupling is defined as another specific area on the neighborhood of the gaze control neuron that is activated at a certain time (ie, the signal transmission control to the subsequent layer is performed). Is temporarily connected to a gaze control neuron (signal propagation) through a local common bus.
Specifically, among other gaze control neurons in the vicinity area, only one neuron (at a random position) within a certain time range (for example, on the order of tens of milliseconds) spontaneously fires and outputs, As a result of the spike pulse reaching the activated gaze control neuron through the common bus, a communication channel with the already activated gaze position update control circuit 1901 is established within the time range.
【0120】このために、例えば近傍領域内にある最新
の注視制御ニューロン以外の他のニューロンが発火状態
になったときだけ共通バスへのアクセスを得るようにす
る。具体的には、その発火状態にあるニューロンからの
パルス信号が共通バスと結合する配線上を伝播すること
により、一時的にその配線の抵抗が低くなるような可変
抵抗アレイとその制御回路を使用する(不図示)か、或い
は各注視制御ニューロンと共通バスとの間に図20、2
1に模式的に示すゲート回路2001(スイッチ回路)とスイ
ッチ信号制御回路2002とを設定し、注視制御ニューロン
からの発火パルス信号をトリガーとして、スイッチ信号
制御回路2002がゲート回路の一つ(図20、21の2001
のc)にスイッチON信号を送り、一時的にチャネルオ
ープン(共通バスへの接続をON状態)にするなどの構成
が取られる。For this purpose, access to the common bus is obtained only when, for example, a neuron other than the latest gaze control neuron in the neighboring area is in a firing state. Specifically, a variable resistance array and its control circuit are used in which the pulse signal from the firing neuron propagates on the wiring connected to the common bus, thereby temporarily reducing the resistance of the wiring. 20 (not shown), or between each gaze control neuron and the common bus.
A gate circuit 2001 (switch circuit) and a switch signal control circuit 2002 schematically shown in FIG. 1 are set, and the switch signal control circuit 2002 is one of the gate circuits (FIG. 20) using a firing pulse signal from the gaze control neuron as a trigger. , 21 of 2001
In (c), a switch ON signal is sent to temporarily open the channel (connection to the common bus is in the ON state).
【0121】次候補の注視位置が選択された後、2次フ
ィードバック信号は増幅手段84により、注視制御ニュ
ーロンへの上位層からのフィードバック信号が所定の増
幅(位相変調の場合、パルス位相の進行などによる)を
受けて注視制御ニューロンに戻される。After the gaze position of the next candidate is selected, the secondary feedback signal is amplified by the amplifying means 84 so that the feedback signal from the upper layer to the gaze control neuron is amplified by a predetermined amount (in the case of phase modulation, the advance of the pulse phase, etc.). Is returned to the gaze control neuron.
【0122】ここで、同時刻に活性化される注視制御ニ
ューロン(従って注視領域)の数は一つの特徴カテゴリ
につき一つに限られる。このために、ある時刻で活性化
していた注視制御ニューロンから異なる注視制御ニュー
ロンに活性化状態が遷移する際、元の活性化ニューロン
は活動が一定時間抑制されるものとする。これは、(最
近傍の)注視制御ニューロンどうしが抑制性結合を形成
することにより実現される(図20、21の注視制御ニ
ューロン1801から出ている点線は抑制性結合を表す)。Here, the number of gaze control neurons activated at the same time (therefore, the gaze area) is limited to one for each feature category. For this reason, when the gaze control neuron that has been activated at a certain time transitions from the activated gaze control neuron to a different gaze control neuron, the activity of the original activated neuron is assumed to be suppressed for a certain period of time. This is achieved by the gaze control neurons (nearest neighbors) forming inhibitory connections (dotted lines from gaze control neurons 1801 in FIGS. 20 and 21 represent inhibitory connections).
【0123】なお、以上において注視制御に関わるフィ
ードバック量の範囲には、予め設定された下限値があ
り、その下限値に対応する注視位置に制御が移った後
は、再び最初の注視点位置に設定がなされるものとす
る。In the above, the range of the feedback amount related to the gaze control has a preset lower limit. After the control is shifted to the gaze position corresponding to the lower limit, the control returns to the first gaze position. Settings shall be made.
【0124】上位層からのフィードバック信号を用いて
注視領域を注視制御層により直接更新制御する上述した
ような機構により、次のような従来にない効果がもたら
される。The above-described mechanism of directly controlling the gaze area by the gaze control layer using the feedback signal from the upper layer provides the following unconventional effects.
【0125】低次の特徴に関する顕著度マップのみを用
いて注視領域制御を行う場合と比べて、効率的(従って
高速)な探索を行うことができ、また、注視領域が2つ
の特徴パターン間を振動しつづけるような無意味な視覚
探索を回避することができる。Compared to the case where the gaze area control is performed using only the saliency map relating to the low-order features, the search can be performed more efficiently (thus, faster). A meaningless visual search that continues to vibrate can be avoided.
【0126】注視すべき対象において、その中の特に注
視すべき特徴的な部分やパターン(例えば、顔などの場
合目など)だけを選択的にかつ効率的に探索することが
できる。この場合には、必ずしも最上位層からのフィー
ドバックを用いるのではなく対象中の特徴的な部位の検
出に関与するような中間層からのフィードバックを用い
てもよい。In a target to be watched, only a characteristic portion or pattern (for example, eyes in the case of a face or the like) to be watched in the target can be selectively and efficiently searched. In this case, the feedback from the intermediate layer that is involved in the detection of a characteristic portion in the target may be used instead of using the feedback from the uppermost layer.
【0127】最新の注視位置の近傍領域で次の更新位置
を探索することにより、高速に注視位置更新制御を行う
事ができる。By searching for the next update position in the region near the latest gaze position, gaze position update control can be performed at high speed.
【0128】複数の同一カテゴリに属する対象が存在す
る場合でも、探索範囲とする近傍領域のサイズを適切に
とることにより、注視点位置の遷移の範囲が特定対象に
固定されることなく、それら対象間を安定的に順次遷移
するような制御が可能である。Even when there are a plurality of targets belonging to the same category, by appropriately setting the size of the neighboring area as the search range, the range of the transition of the gazing point position is not fixed to the specific target, and It is possible to control such that the transitions are made sequentially and stably.
【0129】特徴統合層での処理 特徴統合層((2,0)、(2,1)、…)のニューロンにつ
いて説明する。図1に示すごとく特徴検出層(例えば
(1,0))から特徴統合層(例えば(2,0))への結合は、
当該特徴統合ニューロンの受容野内にある前段の特徴検
出層の同一特徴要素(タイプ)のニューロンから興奮性
結合の入力を受けるように構成され、統合層のニューロ
ンは前述したごとく、各特徴カテゴリごとの局所平均化
(特徴検出ニューロンの受容野を形成するニューロンか
らの入力の平均値算出、代表値算出、最大値算出等)な
どによるサブサンプリングを行うもの(サブサンプリン
グニューロン)と、異なるスケール(処理チャネル)にま
たがって、同一カテゴリの特徴に関する出力の結合を行
うもの(集団的符号化ニューロン)とがある。 Processing in the Feature Integration Layer The neurons in the feature integration layer ((2,0), (2,1),...) Will be described. As shown in FIG. 1, a feature detection layer (for example,
The connection from (1,0)) to the feature integration layer (eg, (2,0)) is
It is configured to receive an excitatory connection input from a neuron of the same feature element (type) of the preceding feature detection layer in the receptive field of the feature integration neuron, and the neurons of the integration layer are assigned to each feature category as described above. Subsampling by local averaging (calculation of average value, representative value, maximum value, etc. of input from neurons that form the receptive field of feature detection neuron) (subsampling neuron) and a different scale (processing channel ), There is a type (collective coded neurons) that combines outputs related to features in the same category.
【0130】前者によれば、複数の同一種類の特徴のパ
ルスを入力し、それらを局所的な領域(受容野)で統合
して平均化する(或いは、受容野内での最大値等の代表
値を算出する)ことにより、その特徴の位置のゆらぎ、
変形に対しても確実に検出することができる。このた
め、特徴統合層ニューロンの受容野構造は、特徴カテゴ
リによらず一様(例えば、いずれも所定サイズの矩形領
域であって、かつ感度または重み係数がその中で一様分
布するなど)となるように構成してよい。According to the former, a plurality of pulses of the same type of characteristic are inputted, and they are integrated and averaged in a local area (receptive field) (or a representative value such as a maximum value in the receptive field). ), The position fluctuation of the feature,
Deformation can be reliably detected. For this reason, the receptive field structure of the feature integration layer neuron is uniform regardless of the feature category (for example, each is a rectangular region of a predetermined size, and the sensitivity or the weight coefficient is uniformly distributed therein). You may comprise so that it may become.
【0131】スケールレベルに関する集団的符号化処理 後者の集団的符号化(population coding)のメカニズム
について詳しく説明する。集団的符号化ニューロンで
は、同一の階層レベル(図形特徴の複雑さが同程度)に
あるが、異なる処理チャネルに属し、同一の特徴統合層
内にある複数のサブサンプリングニューロンからの出力
の正規化線形結合をとることにより統合する。例えば、
Gabor wavelet変換を行う特徴検出層(1,0)の出力を受け
る特徴統合層(2,0)においては、異なる処理チャネルに
属し、方向選択性の等しいGaborフィルタのセット{gmn}
(n一定、m=1,2,…)に対応する出力を線形結合などによ
り統合する。具体的には、pij(t)を方向成分選択性がi
でスケール選択性がjとなるようなサブサンプリングニ
ューロンの出力、qij(t)を同様の選択性を有する集団的
符号(population code)とすると、サブサンプリングニ
ューロンの正規化出力の線形結合を表す式(6)、及び
その正規化方法を表す式(7)の様に表される。なお、
式(6)、(7)は、説明の便宜上サブサンプリングニ
ューロンと集団的符号化ニューロンの出力状態遷移を離
散時間遷移として表している。The collective coding process relating to the scale level The mechanism of the latter collective coding (population coding) will be described in detail. In a collective coded neuron, normalization of the output from multiple sub-sampling neurons at the same hierarchical level (with the same complexity of figure features) but belonging to different processing channels and within the same feature integration layer Integrate by taking a linear combination. For example,
In the feature integration layer (2,0) receiving the output of the feature detection layer (1,0) that performs Gabor wavelet conversion, a set of Gabor filters {g mn } belonging to different processing channels and having equal direction selectivity
The outputs corresponding to (constant n, m = 1, 2,...) are integrated by a linear combination or the like. Specifically, p ij (t) is determined by selecting the direction component selectivity i
The output of a sub-sampling neuron whose scale selectivity becomes j, and q ij (t) is a population code (population code) having the same selectivity, represents the linear combination of the normalized output of the sub-sampling neuron. Expression (6) and Expression (7) representing the normalization method thereof are given. In addition,
Equations (6) and (7) express the output state transitions of the sub-sampling neurons and the collective encoding neurons as discrete time transitions for convenience of explanation.
【0132】[0132]
【外4】 [Outside 4]
【0133】ここに、wij,abは複数の異なる選択性(感
度特性)を有するニューロン(またはニューロン集団)
からの(特徴カテゴリ、即ち方向成分選択性のインデッ
クスがa、スケールレベル選択性のインデックスがbのサ
ブサンプリングニューロン出力から方向成分選択性のイ
ンデックスがi、スケールレベル選択性のインデックス
がjの集団的符号化ニューロンへの)寄与を表す結合係
数である。Here, w ij, ab represents a plurality of neurons (or a group of neurons) having different selectivities (sensitivity characteristics).
From the subsampling neuron output of the feature category, i.e., the index of the direction component selectivity is a, the index of the scale level selectivity is b, the index of the direction component selectivity is i, and the index of the scale level selectivity is j Coupling coefficients representing contributions (to the encoding neuron).
【0134】wij,abは、方向成分インデックスi、スケ
ールレベルインデックスjを中心とするフィルタ機能(選
択性)を示し、典型的には|i-a|と|j-b|の関数形状(w
ij,ab=f(|i-a|,|j-b|))となる。後述するように、このw
ij,abを介した線形結合による集団的符号化は他の選択
性を有するニューロンの検出レベルを考慮した上でqij
が特徴カテゴリ(方向成分)およびスケールレベルに関
する存在確率を与えるようにすることを目的とする。W ij, ab indicates a filter function (selectivity) centered on the directional component index i and the scale level index j, and is typically a function shape of | ia | and | jb | (w
ij, ab = f (| ia |, | jb |)). As described later, this w
Collective coding by linear combination via ij, ab takes into account q ij considering the detection level of other selective neurons.
Provide the existence probabilities for the feature categories (directional components) and scale levels.
【0135】Cは正規化定数、λ、βは定数である(典
型的にはβは1ないし2)。Cはある特徴カテゴリに対す
る集団的符号の総和が殆どゼロでもpijが発散しないよ
うにするための定数である。なお、システム起動時の初
期状態ではqij(0) = pij(0)とする。図12に対応して
式(6)、(7)ではスケールレベル選択性インデックスの
みについての加算を行っている。その結果、集団的符号
化ニューロンは、同一特徴カテゴリで異なるスケールレ
ベル(処理チャネル)に属する各特徴についての存在確
率(に比例する量)を出力することになる。C is a normalization constant, and λ and β are constants (β is typically 1 or 2). C is a constant for preventing p ij from diverging even when the sum of the collective codes for a certain feature category is almost zero. Note that q ij (0) = p ij (0) in the initial state when the system is started. In Equations (6) and (7) corresponding to FIG. 12, addition is performed only for the scale level selectivity index. As a result, the collective coded neuron outputs the existence probability (amount proportional to) of each feature belonging to the same feature category and belonging to a different scale level (processing channel).
【0136】一方、図13の場合のように一般的には方
向成分選択性インデックスについての加算も更に行うこ
とにより、予め設定された数の方向成分の中間レベルに
ついても集団的符号化を行う系を組み立てることができ
る。この場合、パラメーター(式(8)、(9)のβ、
及びwij,lk)を適切に設定することにより、図13に示
す構成では、各集団的符号化ニューロンは、各スケール
レベルと各特徴カテゴリについての特徴の存在確率(に
比例する量)を出力することができる。On the other hand, as in the case of FIG. 13, the addition of the direction component selectivity index is generally further performed, so that a system for collectively encoding the intermediate levels of a predetermined number of direction components is also performed. Can be assembled. In this case, the parameters (β in equations (8) and (9),
And w ij, lk ) appropriately, in the configuration shown in FIG. 13, each collective coded neuron outputs the probability of existence of a feature (an amount proportional to) for each scale level and each feature category. can do.
【0137】式(6)に示すごとく、集団的符号qij(t)
は、異なる感度特性を有するニューロンの出力に関する
正規化された線形結合により得られる。定常状態に達し
たqi j(t)は、適切に正規化(例えば、qijに関する総和値
で正規化)して値が0から1の間になるようにすると、q
ijは方向成分がiとスケールレベルがjに相当する確率を
与えることになる。従って、入力データ中の対象のサイ
ズに対応するスケールレベルを明示的に値として求める
には、qijをフィッティングする曲線を求めて最大値を
推定し、これに対応するスケールレベルを求めればよ
い。このようにして求まるスケールレベルは、一般的に
は予め設定したスケールレベルの中間的な値を示す。As shown in equation (6), the collective code qij(t)
Is related to the output of neurons with different sensitivity characteristics
Obtained by normalized linear combination. Has reached a steady state
Qi j(t) is properly normalized (e.g., qijSum value for
If the value is between 0 and 1 then q
ijIs the probability that the direction component is i and the scale level is j.
Will give. Therefore, the size of the target in the input data
Explicitly determine the scale level corresponding to the size
Has qijFind the curve that fits
Estimate and find the corresponding scale level
No. The scale level determined in this way is generally
Indicates an intermediate value of a preset scale level.
【0138】図23はスケールレベルの集団的符号化の
例を示し、横軸はスケールレベル、縦軸は細胞出力を表
す。出力とは、パルス位相に相当し、特定のスケールに
ピーク感度を有するニューロンは、そのスケールからず
れたサイズを有する特徴に対しては、特定スケールに対
応するサイズの特徴と比べて出力レベルの低下、即ち、
位相遅れが生じることになる。同図には、各特徴検出細
胞のスケール選択性に関する感度曲線(いわゆるチュー
ニング曲線)と各細胞出力、及びそれらを統合して得ら
れる集団的符号統合出力(各細胞出力のスケールレベル
に関するモーメント、即ち線形和)を示す。集団的符号
の統合出力の横軸上の位置は、認識対象に関するスケー
ル(サイズ)の推定値を反映している。FIG. 23 shows an example of collective encoding of the scale level. The horizontal axis represents the scale level, and the vertical axis represents the cell output. The output is equivalent to the pulse phase, and a neuron having a peak sensitivity at a specific scale has a lower output level for a feature having a size deviated from that scale as compared to a feature having a size corresponding to the specific scale. That is,
A phase delay will occur. The figure shows a sensitivity curve (so-called tuning curve) relating to scale selectivity of each feature detection cell, each cell output, and a collective code integrated output obtained by integrating them (moment of each cell output with respect to the scale level, ie, Linear sum). The position on the horizontal axis of the integrated output of the collective code reflects the estimated value of the scale (size) of the recognition target.
【0139】本実施形態では、実際にはスケールレベル
を明示的には求めず、特徴統合層から特徴検出層への出
力はqijとする(正規化したqijでもよい)。即ち、図1
2、13のいずれも、特徴統合層から特徴検出層への出
力は、サブサンプリングニューロンからの出力ではな
く、集団的符号化ニューロンの出力とすることにより、
最終的には、上記した正規化後のqijのように、複数ス
ケールレベル(解像度)にまたがった特定対象の検出確
率として集団的に表される。In this embodiment, actually, the scale level is not explicitly obtained, and the output from the feature integration layer to the feature detection layer is q ij (or may be normalized q ij ). That is, FIG.
In both of the cases 2 and 13, the output from the feature integration layer to the feature detection layer is not the output from the sub-sampling neuron, but the output of the collective encoding neuron.
Finally, like q ij after the above-described normalization, it is collectively represented as a detection probability of a specific target over a plurality of scale levels (resolutions).
【0140】図12に示す特徴統合層の回路構成では、
先ず、サブサンプリングニューロン回路1201で前段の特
徴検出層ニューロン出力のうち、各特徴カテゴリとサイ
ズ選択性が同一のニューロン出力を、当該サブサンプリ
ングニューロンの局所受容野で受け、局所的な平均化を
行う。各サブサンプリングニューロン出力は、結合処理
回路1203に送られる。このとき、後述するように各ニュ
ーロンからのパルス信号は、不図示のシナプス回路によ
り、所定位相量(例えば、式(7)のβが2のとき、特
徴検出ニューロンの出力レベル相当の2乗に比例する
量)だけ遅延を受け、局所的な共通バスを介して伝播さ
れる。ただし、ニューロン間の配線には、共通バスを用
いず物理的に独立配線してもよい。In the circuit configuration of the feature integration layer shown in FIG.
First, the sub-sampling neuron circuit 1201 receives, in the local receptive field of the sub-sampling neuron, a neuron output having the same size selectivity as each feature category among the neurons in the preceding stage of the feature detection layer, and performs local averaging. . Each sub-sampling neuron output is sent to the joint processing circuit 1203. At this time, as described later, a pulse signal from each neuron is converted by a synapse circuit (not shown) into a predetermined phase amount (for example, when β in Expression (7) is 2, the square of the output level of the feature detection neuron). (Proportional amount) and propagated over the local common bus. However, wiring between neurons may be physically independent wiring without using a common bus.
【0141】結合処理回路1203では、式(6)、(7)
に相当する処理を行い、特徴カテゴリが同じだが、サイ
ズ選択性の異なる(複数処理チャネルにまたがる)情報
の集団的符号化を行う。In the combination processing circuit 1203, the equations (6) and (7)
And collectively encodes information having the same feature category but different size selectivity (across multiple processing channels).
【0142】また、図12では特徴カテゴリ(方向成分
選択性)が同一のサブサンプリングニューロン出力につ
いて集団的符号化を行ったのに対し、図13に示す回路
構成では、特徴カテゴリおよびサイズ選択性の全体にわ
たって行う結合処理回路で、式(8)、(9)に示すよ
うな処理を行う。Further, in FIG. 12, collective encoding is performed on sub-sampled neuron outputs having the same feature category (directional component selectivity), whereas in the circuit configuration shown in FIG. The processing as shown in equations (8) and (9) is performed by the coupling processing circuit that performs the entire processing.
【0143】[0143]
【外5】 [Outside 5]
【0144】一方、(2,0)層内の各チャネルごとのPa
に応じた信号増幅/減衰(パルス位相の前進/遅延)を、
各集団的符号化ニューロンからの出力に対して行うよう
な、チャネル活性度制御回路を設定することができる。
図15に、この様なチャネル活性度制御回路1502を設定
した構成の模式図を示す。このチャネル活性度制御回路
は、図12、13の集団的符号化ニューロン1202と次層
である特徴検出層との間に設定される。On the other hand, P a for each channel in the (2,0) layer
Signal amplification / attenuation (pulse phase advance / delay)
A channel activity control circuit can be set up, such as for the output from each collective encoding neuron.
FIG. 15 is a schematic diagram of a configuration in which such a channel activity control circuit 1502 is set. This channel activity control circuit is set between the collective coding neuron 1202 in FIGS. 12 and 13 and the next layer, the feature detection layer.
【0145】最終層では、複数チャネルにわたって、高
次特徴としての認識対象の存在確率が、ニューロンの活
動レベル(即ち、発火周波数や発火スパイクの位相など)
として表現される。Where処理経路(或いは最終層で検出
・認識対象の位置情報も検出される場合)では、最終層
で入力データ中の位置(場所)に応じた対象の存在確率
(閾値処理すれば、対象の有無)が、各ニューロンの活
動レベルとして検出される。集団的符号化は、正規化を
行わない線形結合によって求めてもよいが、ノイズの影
響を受けやすくなる可能性があり、正規化することが望
ましい。In the final layer, the existence probability of a recognition target as a higher-order feature over a plurality of channels is determined by the activity level of a neuron (ie, firing frequency, firing spike phase, etc.).
Is expressed as In the Where processing path (or when the position information of the detection / recognition target is also detected in the final layer), the existence probability of the target corresponding to the position (place) in the input data in the final layer ) Is detected as the activity level of each neuron. The collective coding may be obtained by a linear combination without normalization, but may be easily affected by noise, and it is preferable to perform the normalization.
【0146】式(7)または(9)に示す正規化は、神
経回路網レベルでは、いわゆる分流型抑制(shunting in
hibition)により、また、式(6)または(8)に示す
ような線形結合は、層内の結合(lateral connection)
により実現することができる。The normalization shown in the equation (7) or (9) is performed at the neural network level by so-called shunting in suppression.
(6) or (8), the linear connection as shown in equation (6) or (8)
Can be realized by:
【0147】βが2のときの正規化回路の例を図14に
示す。この正規化回路は、異なる処理チャネルに属する
特徴検出細胞nijの出力の2乗和を取るための2乗和算
出回路1403と、主に式(6)の正規化を行う分流型抑制
回路1404、及び式(5)の線形和を求めて出力する線形
和回路1405とから構成される。FIG. 14 shows an example of a normalization circuit when β is 2. This normalization circuit includes a sum-of-squares calculation circuit 1403 for calculating the sum of squares of the outputs of the feature detection cells n ij belonging to different processing channels, and a shunt type suppression circuit 1404 for mainly normalizing Expression (6). , And a linear sum circuit 1405 for obtaining and outputting a linear sum of Expression (5).
【0148】2乗和算出回路1403においては、各特徴検
出細胞の2乗値を保持(pooling)する介在ニューロン(in
ter-neuron)素子1406が存在し、当該介在ニューロン140
6への結合を与える各シナプス結合素子1402が、特徴検
出細胞1401出力の2乗値に相当するパルス位相遅れ(或
いはパルス幅変調、パルス周波数変調)を与える。In the square sum calculation circuit 1403, an interneuron (in pool) holds (pools) the square value of each feature detection cell.
ter-neuron) element 1406 is present and the interneuron 140
Each synapse coupling element 1402 that provides a coupling to 6 provides a pulse phase delay (or pulse width modulation, pulse frequency modulation) corresponding to the square of the output of the feature detection cell 1401.
【0149】分流型抑制回路1404は、例えば、介在ニュ
ーロン1406の出力に所定の係数(λ/C)を乗算した値の逆
数に比例するような可変抵抗素子とコンデンサ及び特徴
検出細胞1401の出力の2乗を与えるパルス位相変調回路
(或いはパルス幅変調回路、パルス周波数変調回路)とか
ら構成される。The shunt-type suppression circuit 1404 outputs a variable resistance element, a capacitor, and an output of the characteristic detection cell 1401 which are proportional to the reciprocal of a value obtained by multiplying the output of the interneuron 1406 by a predetermined coefficient (λ / C). Pulse phase modulation circuit giving a square
(Or a pulse width modulation circuit or a pulse frequency modulation circuit).
【0150】次に、チャネル処理の変形例について説明
する。以上の様な処理チャネル毎に集団的符号化がなさ
れ、各処理チャネル出力が後続層に伝達されるようにす
る構成(即ち、図12又は13の構成がカスケード的に
後続層まで保持される構成)のほかに、処理効率を上げ
るとともに消費電力を抑えるために、特徴統合層(2,
0)内の最大応答レベルを与える処理チャネルと同一の
チャネルに属する(次の層の)特徴検出細胞のみに当該
集団的符号化ニューロンの出力が伝播するようにしても
よい。Next, a modification of the channel processing will be described. A configuration in which collective coding is performed for each processing channel as described above, and each processing channel output is transmitted to a subsequent layer (that is, a configuration in which the configuration of FIG. 12 or 13 is cascaded to the subsequent layer) ), To improve processing efficiency and reduce power consumption, the feature integration layer (2,
The output of the collective coded neuron may be propagated only to the feature detection cells (in the next layer) belonging to the same channel as the processing channel that gives the maximum response level in 0).
【0151】この場合には、図12、13に示す構成に
加えて、集団的符号化ニューロン回路の出力を受け、最
大応答レベルを与える処理チャネル選択回路として最大
入力検出回路、いわゆるWinner-Take-All回路(以下、W
TA回路と称す)を特徴統合層(2,0)出力と次の特徴検出
層(1,1)との間に存在するように設定する。この処理チ
ャネル選択回路は特徴統合層の各位置ごとに設定しても
よいし、当該層に一つ、場所によらず入力データ全体に
ついて処理チャネルごとの最大応答レベルを算出する回
路として設定してもよい。In this case, in addition to the configuration shown in FIGS. 12 and 13, a maximum input detection circuit, a so-called winner-take-off circuit, is used as a processing channel selection circuit that receives the output of the collective encoding neuron circuit and gives the maximum response level. All circuit (W
TA circuit) is set to exist between the output of the feature integration layer (2,0) and the next feature detection layer (1,1). The processing channel selection circuit may be set for each position of the feature integration layer, or may be set as a circuit for calculating the maximum response level for each processing channel for the entire input data regardless of the location, one for the layer. Is also good.
【0152】WTA回路としては例えば、特開平08-321
747号公報、USP5059814, USP5146106その他に記載され
た公知の構成を用いることができる。特徴統合層におい
てWTA回路により特徴統合層の最大応答を示す処理チ
ャネルのみの出力を次の層である特徴検出層に伝播させ
る構成を図16の(A)に模式的に示す。これは、図1
5のチャネル活性度制御回路1502をゲーティング回路16
02で置き換えたものである。As the WTA circuit, for example, Japanese Patent Application Laid-Open No. 08-321
Known structures described in Japanese Patent No. 747, USP5059814, USP5146106 and others can be used. FIG. 16A schematically shows a configuration in which the output of only the processing channel exhibiting the maximum response of the feature integration layer is propagated to the next layer, the feature detection layer, by the WTA circuit in the feature integration layer. This is shown in FIG.
5 channel activity control circuit 1502 to gating circuit 16
Replaced with 02.
【0153】ゲーティング回路1602は、図16の(B)
に示すように各処理チャネルごとの平均出力レベルを入
力するWTA回路1603と、最大の平均出力レベルを示す
処理チャネルからの各ニューロンの出力を次の層の同一
チャネルに伝播させるためのチャネル選択回路1604とを
有する。The gating circuit 1602 is shown in FIG.
And a channel selection circuit for transmitting the output of each neuron from the processing channel exhibiting the maximum average output level to the same channel in the next layer, as shown in FIG. 1604.
【0154】また、後続の特徴統合層(2,k)(kは1以
上)では、このような処理チャネル選択回路は必ずしも
要しないが、例えば、高次特徴検出後の特徴統合層の出
力を処理チャネル選択回路経由でフィードバックして低
次又は中次特徴の統合層での処理チャネル選択を行うよ
うにしてもよい。以上でチャネル処理の変形例について
の説明を終わる。なお、図12、13に示すようなサブ
サンプリング、結合処理、集団的符号化の流れを特徴統
合層内で行う構成に限定されず、例えば結合処理、集団
的符号化の為の層を別に設けるなどしてもよいことは言
うまでもない。In the subsequent feature integration layer (2, k) (k is 1 or more), such a processing channel selection circuit is not necessarily required. For example, the output of the feature integration layer after higher-order feature detection is performed. The processing channel selection in the integrated layer of the low-order or medium-order features may be performed by feedback via the processing channel selection circuit. This concludes the description of the modification of the channel processing. Note that the flow of the sub-sampling, combination processing, and collective encoding as shown in FIGS. 12 and 13 is not limited to the configuration in which the flow is performed in the feature integration layer. For example, a separate layer for the combination processing and collective encoding is provided. Needless to say, this may be done.
【0155】なお、サイズのほぼ等しい対象が近接して
存在し、或いは部分的に重なり合って存在しているとき
でも、局所的な受容野構造とサブサンプリング構造等に
よる部分的な複数種類の特徴を統合して検出するメカニ
ズムにより、対象の認識、検出性能が保持されること
は、言うまでもない。It should be noted that even when objects having substantially the same size exist close to each other or partially overlap each other, a plurality of partial features due to a local receptive field structure and a sub-sampling structure are used. Needless to say, the recognition and detection performance of the object is maintained by the integrated detection mechanism.
【0156】特徴統合層でのパルス信号処理 前述した結合回路は、式(5)又は(7)により得られる
集団的符号化レベルに対応するパルスを、各集団的符号
化ニューロンに出力し、層番号(2,k)の各特徴統合細胞
(n1,n2,n3)としての前述した集団的符号化ニューロン
は、層番号(1,k+1)の層のペースメーカニューロンから
のパルス入力を受け、かつ前段の特徴検出層またはセン
サー入力層(層番号(1,k))からの入力により、前述し
た結合回路出力が十分なレベルにある場合(例えば、あ
る時間範囲または時間窓での平均入力パルス数が閾値よ
り大、或いはパルス位相が進んでいること)には、ペー
スメーカからのパルスの立ち下がり時を基準とした出力
を行う。 Pulse signal processing in feature integration layer The above-described coupling circuit outputs a pulse corresponding to the collective coding level obtained by the equation (5) or (7) to each collective coding neuron. Each integrated cell with number (2, k)
The above-described collectively coded neurons as (n 1 , n 2 , n 3 ) receive a pulse input from the pacemaker neuron of the layer of the layer number (1, k + 1) and perform the preceding feature detection layer or sensor. When the output of the above-described coupling circuit is at a sufficient level due to the input from the input layer (layer number (1, k)) (for example, the average number of input pulses in a certain time range or time window is larger than a threshold, or In the case where the phase is advanced, the output is performed based on the falling time of the pulse from the pacemaker.
【0157】また、前述したサブサンプリングニューロ
ンは、いずれのペースメーカニューロンからの制御も受
けず、前段の(1,k)層の特徴検出細胞からの平均的な
(各サブサンプリングニューロンごとに独立した位相を
もった時間窓内)出力レベルに基づき、サブサンプリン
グ処理を行う。また、サブサンプリングニューロンから
結合処理ニューロンへのパルス出力タイミング制御も、
ペースメーカニューロンを介さずに行われ、結合処理回
路から集団的符号化ニューロンへのパルス出力も同様で
ある。The above-described sub-sampling neurons do not receive control from any pacemaker neurons, and have an average (independent phase independent for each sub-sampling neuron) from the preceding (1, k) layer feature detection cells. The sub-sampling process is performed based on the output level within a time window having Also, the pulse output timing control from the sub-sampling neuron to the connection processing neuron,
It is performed without the intervention of the pacemaker neuron, and the pulse output from the joint processing circuit to the collective encoding neuron is the same.
【0158】このように本実施形態では、特徴統合細胞
(サブサンプリングニューロン、集団的符号化ニューロ
ンなど)は、その前の層番号(1,k)の特徴検出層上のペ
ースメーカニューロンからのタイミング制御を受けるよ
うには、構成していない。なぜならば、特徴統合細胞に
おいては、入力パルスの到着時間パターンではなく、む
しろ一定の時間範囲での入力レベル(入力パルスの時間
的総和値など)によって決まる位相(周波数、パルス
幅、振幅のいずれが依存してもよいが、本実施形態では
位相とした)でのパルス出力をするため、時間窓の発生
タイミングは余り重要ではないからである。なお、この
ことは、特徴統合細胞が前段の層の特徴検出層のペース
メーカニューロンからのタイミング制御を受ける構成を
排除する趣旨ではなく、そのような構成も可能であるこ
とはいうまでもない。As described above, in the present embodiment, the feature-integrated cells (sub-sampling neurons, collective encoding neurons, etc.) are controlled by the timing control from the pacemaker neuron on the feature detection layer of the preceding layer number (1, k). Not configured to receive. This is because in a feature-integrated cell, the phase (frequency, pulse width, or amplitude) determined by the input level (such as the sum of the input pulses over time) within a certain time range is not the arrival time pattern of the input pulse. This is because the pulse is output in the present embodiment, but the timing at which the time window is generated is not so important. Note that this is not intended to exclude a configuration in which the feature-integrated cells receive the timing control from the pacemaker neuron in the feature detection layer in the preceding layer, and it goes without saying that such a configuration is also possible.
【0159】特徴位置検出層での処理 特徴位置検出層は、図1に示すように、What経路と分離
したWhere経路をなし、同一階層レベルの特徴検出層(1,
k)との結合、及び注視領域設定制御層108へのフィード
バック結合をなす。特徴位置検出層107のニューロンの
配列及び機能は、特徴統合層103における集団的符号化
を行わないこと、及び特徴配置関係の情報が失われない
ように上位層と下位層間で受容野サイズが大きく変わら
ないことを除いて、特徴統合層103のサブサンプリング
ニューロン1201と同様に、特徴カテゴリごとに各ニュー
ロンが配列し、また特徴検出層ニューロンと結合するこ
とにより、サブサンプリングを行っている。その結果、
最上位の特徴位置検出層では、認識・検出対象に関する
大まかな空間分布(配置)を表すニューロンの発火状態の
分布が得られる。 Processing in the feature position detection layer As shown in FIG. 1, the feature position detection layer forms a Where path separated from the What path, and has a feature detection layer (1,
k) and a feedback connection to the attention area setting control layer 108. The arrangement and function of the neurons of the feature position detection layer 107 are such that the collective coding in the feature integration layer 103 is not performed, and the size of the receptive field between the upper layer and the lower layer is large so that the information of the feature arrangement relation is not lost. Except that it does not change, subsampling is performed by arranging each neuron for each feature category and combining with the feature detection layer neuron, similarly to the subsampling neuron 1201 of the feature integration layer 103. as a result,
In the top-most feature position detection layer, a distribution of firing states of neurons representing a rough spatial distribution (arrangement) of the recognition / detection target is obtained.
【0160】特徴位置検出層でのパルス信号処理 特徴統合層103のサブサンプリングニューロン1201と同
じである。即ち、(3,k)層のニューロンは、いずれのペ
ースメーカニューロンからの制御を受けず、前段の(1,
k)層の特徴検出細胞からの平均的な(各サブサンプリン
グニューロンごとに独立した位相をもった時間窓内)出
力レベルに基づき、サブサンプリング処理を行う。 Pulse Signal Processing in the Feature Position Detection Layer This is the same as the sub-sampling neuron 1201 in the feature integration layer 103. That is, the neurons in the (3, k) layer are not controlled by any of the pacemaker neurons, and
k) Sub-sampling processing is performed based on an average output level (within a time window having an independent phase for each sub-sampling neuron) from the feature detection cells in the layer.
【0161】パターン検出の動作原理 次に、2次元図形パターンのパルス符号化と検出方法に
ついて説明する。図3は、特徴統合層103から特徴検出
層102への(例えば、図1の層(2,0)から層(1,1)へ
の)パルス信号の伝播の様子を模式的に示した図であ
る。[0161] The operating principle of the pattern detection Next, pulse code of two-dimensional figure pattern detection method will be described. FIG. 3 is a diagram schematically showing a state of propagation of a pulse signal from the feature integration layer 103 to the feature detection layer 102 (for example, from the layer (2,0) to the layer (1,1) in FIG. 1). It is.
【0162】特徴統合層103側の各ニューロンni(n1〜n
4)は、それぞれ異なる特徴量(或いは特徴要素)に対
応しており、特徴検出層102側のニューロンn'jは、同一
受容野内の各特徴を組み合わせて得られる、より高次の
特徴(図形要素)の検出に関与する。Each neuron n i (n 1 to n) on the feature integration layer 103 side
4 ) correspond to different feature amounts (or feature elements), respectively, and the neuron n ′ j on the feature detection layer 102 side uses higher-order features (graphics) obtained by combining the features in the same receptive field. Element).
【0163】各ニューロン間結合には、パルスの伝播時
間とニューロンniからニューロンn' jへのシナプス結合
(Sij)での時間遅れ等による固有(特徴に固有)の遅
延が生じ、その結果として、共通バスライン301を介し
てニューロンn'jに到着するパルス列Piは、特徴統合層1
03の各ニューロンからパルス出力がなされる限り、学習
によって決まるシナプス結合での遅延量により、所定の
順序(及び間隔)になっている(図3の(A)では、
P4,P3,P2,P1の順に到着することが示されている)。The connection between the neurons is determined when the pulse is propagated.
Between and neuron niFrom neuron n ' jSynaptic connection to
(Sij) Delay due to time delays etc.
Delay, and as a result, via the common bus line 301
The neuron n 'jPulse train P arriving atiIs the feature integration layer 1
Learning as long as pulse output is made from each neuron in 03
The amount of delay in synaptic connections determined by
(In FIG. 3A,
PFour, PThree, PTwo, P1In order of arrival).
【0164】図3の(B)は、ペースメーカニューロン
からのタイミング信号を用いて時間窓の同期制御を行う
場合において、層番号(2,k)上の特徴統合細胞n1、
n2、n3(それぞれ異なる種類の特徴を表す)から、層番
号(1,k+1)上のある特徴検出細胞(n'j)(より上位の特
徴検出を行う)へのパルス伝播のタイミング等を示して
いる。FIG. 3B shows a case where the time window synchronization control is performed using the timing signal from the pacemaker neuron, and the feature integrated cells n 1 , n 2 ,
Pulse propagation from n 2 , n 3 (representing different types of features) to a certain feature detection cell (n ' j ) (which performs higher-order feature detection) on layer number (1, k + 1) The timing etc. are shown.
【0165】図6は、特徴検出層ニューロンにペースメ
ーカニューロンからの入力がある場合のネットワーク構
成を示す図である。図6において、ペースメーカニュー
ロン603(np)は、同一の受容野を形成し、かつ異なる種
類の特徴を検出する特徴検出ニューロン602(nj,nk等)
に付随し、それらと同一の受容野を形成して、特徴統合
層(または入力層)上のニューロン601からの興奮性結
合を受ける。そして、その入力の総和値(或いは受容野
全体の活動度レベル平均値など、受容野全体に固有の活
動特性を表す状態に依存するように制御するため)によ
って決まる所定のタイミング(または周波数)でパルス
出力を特徴検出ニューロン602及び特徴統合ニューロン
に対して行う。FIG. 6 is a diagram showing a network configuration when the feature detection layer neuron has an input from a pacemaker neuron. In FIG. 6, pacemaker neurons 603 (n p ) form feature receptive neurons 602 (n j , nk etc.) that form the same receptive field and detect different types of features.
, And form the same receptive field as those, and receive excitatory connections from the neurons 601 on the feature integration layer (or input layer). Then, at a predetermined timing (or frequency) determined by the sum of the inputs (or to control the state of the receptive field as a whole, such as an average activity level of the entire receptive field). Pulse output is performed to the feature detection neuron 602 and the feature integration neuron.
【0166】また、各特徴検出ニューロン602では、そ
の入力をトリガー信号として互いに時間窓が位相ロック
する様に構成されているが、前述したようにペースメー
カニューロン入力がある前は、位相ロックされず、各ニ
ューロンはランダムな位相でパルス出力する。また、特
徴検出ニューロン602では、ペースメーカニューロン603
からの入力がある前は後述する時間窓積分は行われず、
ペースメーカニューロン603からのパルス入力をトリガ
ーとして、同積分が行われる。Each of the feature detection neurons 602 is configured so that the time windows are phase-locked with each other using the input as a trigger signal. However, as described above, before the pacemaker neuron input is present, the phase is not locked. Each neuron outputs a pulse with a random phase. In the feature detection neuron 602, a pacemaker neuron 603 is used.
Before the input from, the time window integration described later is not performed.
The same integration is performed using a pulse input from the pacemaker neuron 603 as a trigger.
【0167】ここに、時間窓は特徴検出細胞(n'i)ごと
に定められ、当該細胞に関して同一受容野を形成する特
徴統合層内の各ニューロンおよび、ペースメーカニュー
ロン603に対して共通であり、時間窓積分の時間範囲を
与える。Here, the time window is determined for each feature detection cell (n ′ i ), and is common to each neuron in the feature integration layer forming the same receptive field for the cell and the pacemaker neuron 603; Gives the time range for time window integration.
【0168】層番号(1,k)にあるペースメーカニューロ
ン603は(kは自然数)、パルス出力を、層番号(2,k-1)
の各特徴統合細胞、及びそのペースメーカニューロン60
3が属する特徴検出細胞(層番号(1,k))に出力すること
により、特徴検出細胞が時間的に入力を加算する際の時
間窓発生のタイミング信号を与えている。この時間窓の
開始時刻が各特徴統合細胞から出力されるパルスの到着
時間を図る基準時となる。即ち、ペースメーカニューロ
ン603は特徴統合細胞からのパルス出力時刻、及び特徴
検出細胞での時間窓積分の基準パルスを与える。The pacemaker neuron 603 at the layer number (1, k) (k is a natural number) outputs the pulse output to the layer number (2, k-1).
Each integrated cell and its pacemaker neuron 60
By outputting to the feature detection cell (layer number (1, k)) to which 3 belongs, a timing signal for generating a time window when the feature detection cell temporally adds inputs is given. The start time of this time window is a reference time for determining the arrival time of the pulse output from each integrated cell. That is, the pacemaker neuron 603 gives a pulse output time from the feature integration cell and a reference pulse for time window integration in the feature detection cell.
【0169】各パルスは、シナプス回路を通過すると所
定量の位相遅延が与えられ、更に共通バスなどの信号伝
達線を通って特徴検出細胞に到着する。この時のパルス
の時間軸上の並びを、特徴検出細胞の時間軸上において
点線で表したパルス(P1,P2,P3)により示す。Each pulse is given a predetermined amount of phase delay when passing through the synapse circuit, and further, reaches a feature detecting cell through a signal transmission line such as a common bus. The arrangement of the pulses on the time axis at this time is indicated by the pulses (P 1 , P 2 , P 3 ) indicated by the dotted lines on the time axis of the feature detection cells.
【0170】特徴検出細胞において各パルス(P1,
P2,P3)の時間窓積分(通常、一回の積分とする;但
し、多数回に渡る時間窓積分による電荷蓄積、または多
数回に渡る時間窓積分の平均化処理を行ってもよい)の
結果、閾値より大となった場合には、時間窓の終了時刻
を基準としてパルス出力(Pd)がなされる。なお、図
3の(B)に示した学習時の時間窓とは、後で説明する
学習則を実行する際に参照されるものである。Each pulse (P 1 ,
P 2 , P 3 ) time window integration (usually one integration; however, charge accumulation by multiple time window integrations or averaging of multiple time window integrations may be performed. If the result is larger than the threshold value, a pulse output (P d ) is made based on the end time of the time window. The learning time window shown in FIG. 3B is referred to when a learning rule described later is executed.
【0171】シナプス回路等 図4は、シナプス回路Siの構成を示す図である。図4の
(A)は、シナプス回路202(Si)において、ニューロンn
iの結合先である各ニューロンn'jへのシナプス結合強度
(位相遅延)を与える各小回路401が、マトリクス的に
配置されていることを示している。このようにすると、
シナプス回路から結合先ニューロンへの配線を各受容野
に対応する同一ライン(局所的な共通バス301)上で行
う事ができ(ニューロン間の配線を仮想的に行うことが
でき)、従来から問題となっていた配線問題の軽減(除
去)が図られる。[0171] Synaptic circuits, etc. Figure 4 is a diagram showing the structure of the synapse circuit S i. FIG. 4A shows a case where the synapse circuit 202 (S i ) has a neuron n
This shows that the small circuits 401 that give the synaptic connection strength (phase delay) to each neuron n ′ j that is the connection destination of i are arranged in a matrix. This way,
Wiring from the synapse circuit to the connected neuron can be performed on the same line (local common bus 301) corresponding to each receptive field (virtual wiring between neurons can be performed), which is a problem from the past. Is reduced (removed).
【0172】また、結合先のニューロンでは、同一受容
野からの複数パルス入力を受けた際に、それぞれがどの
ニューロンから発せられたものかを時間窓基準でのパル
スの到着時間(特徴検出細胞が検出する特徴に対応し、
それを構成する低次特徴に固有の位相遅延)により、時
間軸上で識別することができる。When a plurality of pulse inputs from the same receptive field are received, the neuron of the connection destination determines which neuron has emitted each pulse from the arrival time of the pulse on the basis of a time window (when the characteristic detection cell Corresponding to the feature to be detected,
It can be identified on the time axis by the phase delay inherent to the low-order features that constitute it.
【0173】図4の(B)に示すように、各シナプス結
合小回路401は、学習回路402と位相遅延回路403とから
なる。学習回路402は、位相遅延回路403の特性を変化さ
せることにより、上記遅延量を調整し、また、その特性
値(或いはその制御値)を浮遊ゲート素子、或いは浮遊
ゲート素子と結合したキャパシタ上に記憶するものであ
る。As shown in FIG. 4B, each synapse coupling small circuit 401 includes a learning circuit 402 and a phase delay circuit 403. The learning circuit 402 adjusts the delay amount by changing the characteristics of the phase delay circuit 403, and also stores the characteristic value (or its control value) on the floating gate element or on a capacitor coupled to the floating gate element. It is something to memorize.
【0174】図5は、シナプス結合小回路の詳細構成を
示す図である。位相遅延回路403はパルス位相変調回路
であり、例えば、図5の(A)に示すように、単安定マ
ルチバイブレータ506、507、抵抗501、504、キャパシタ
503、505、トランジスター502を用いて構成できる。図
5の(B)は、単安定マルチバイブレータ506へ入力さ
れた方形波P1(図5の(B)の[1])、単安定マルチバイ
ブレータ506から出力される方形波P2(同[2])、単安定マ
ルチバイブレータ507から出力される方形波P3(同[3])の
各タイミングを表している。FIG. 5 is a diagram showing a detailed configuration of a synapse connection small circuit. The phase delay circuit 403 is a pulse phase modulation circuit. For example, as shown in FIG. 5A, monostable multivibrators 506 and 507, resistors 501 and 504, capacitors
503, 505 and a transistor 502 can be used. FIG. 5B shows a square wave P1 ([1] in FIG. 5B) input to the monostable multivibrator 506, and a square wave P2 (the same [2]) output from the monostable multivibrator 506. ), The respective timings of the square wave P3 (the same [3]) output from the monostable multivibrator 507.
【0175】位相遅延回路403の動作機構の詳細につい
ては説明を省略するが、P1のパルス幅は、充電電流に
よるキャパシタ503の電圧が予め定められた閾値に達す
るまでの時間で決まり、P2の幅は抵抗504とキャパシ
タ505による時定数で決まる。P2のパルス幅が(図5
の(B)の点線方形波のように)広がって、その立ち下
がり時点が後にずれるとP3の立ち上がり時点も同じ量
ずれるが、P3のパルス幅は変わらないので、結果的に
入力パルスの位相だけが変調されて出力されたことにな
る。Although the details of the operation mechanism of the phase delay circuit 403 are omitted, the pulse width of P1 is determined by the time until the voltage of the capacitor 503 due to the charging current reaches a predetermined threshold, and the width of P2 is determined. Is determined by the time constant of the resistor 504 and the capacitor 505. When the pulse width of P2 is
If the falling point shifts later, the rising point of P3 also shifts by the same amount, but the pulse width of P3 does not change. As a result, only the phase of the input pulse is changed. Is modulated and output.
【0176】制御電圧Ecを基準電圧のリフレッシュ回路
509と結合荷重を与えるキャパシタ508への電荷蓄積量制
御を行う学習回路402で変化させることにより、パルス
位相(遅延量)を制御することができる。この結合荷重
の長期保持のためには、学習動作後に図5の(A)の回
路の外側に付加される浮遊ゲート素子(図示せず)のチ
ャージとして、或いはデジタルメモリへの書き込み等を
行って結合荷重を格納してもよい。その他回路規模を小
さくなるように工夫した構成(例えば、特開平5-37317
号公報、特開平10-327054号公報参照)など周知の回路
構成を用いることができる。Refresh circuit using control voltage Ec as reference voltage
The pulse phase (delay amount) can be controlled by changing the learning circuit 402 that controls the amount of charge stored in the capacitor 508 that applies the connection weight to the capacitor 509. In order to maintain the connection weight for a long period of time, after the learning operation, as a charge of a floating gate element (not shown) added to the outside of the circuit of FIG. The coupling load may be stored. Other configurations designed to reduce the circuit scale (for example, see Japanese Patent Application Laid-Open No. 5-37317)
A publicly known circuit configuration such as that described in Japanese Patent Application Laid-Open No. H10-327054 can be used.
【0177】ネットワークが結合荷重の共有結合形式
(特に、1個の重み係数で複数のシナプス結合を同一に
表す場合)になるような構成をとる場合には、各シナプ
スでの遅延量(下記の式(9)のPij)が、図3の場合
と異なって、同一受容野内で一様とすることもできる。
特に、特徴検出層から特徴統合層への結合は、特徴統合
層がその前段の層である特徴検出層出力の局所平均化そ
の他によるサブサンプリングに関与するため、検出対象
によらず(即ち、課題によらず)、このように構成する
ことができる。In the case where the network adopts a configuration in which the connection weight has a covalent connection form (particularly, a case where a plurality of synapse connections are represented by the same weight coefficient), the delay amount at each synapse (described below). Unlike the case of FIG. 3, Pij) in equation (9) may be uniform within the same receptive field.
In particular, the connection from the feature detection layer to the feature integration layer involves sub-sampling by local averaging of the output of the feature detection layer, which is the preceding layer, and the like, and therefore does not depend on the detection target (that is, the problem Regardless), it can be configured in this manner.
【0178】この場合、図4の(A)の各小回路は、図
4の(B)に示すように、局所共通バスライン401で結
合される単一の回路Sk,iで済み、特に経済的な回路構成
となる。一方、特徴統合層103(またはセンサー入力層1
01)から特徴検出層102への結合がこのようになってい
る場合、特徴検出ニューロンが検出するのは、複数の異
なる特徴要素を表すパルスの同時到着(或いは、略同時
到着)という、イベントである。In this case, as shown in FIG. 4B, each small circuit shown in FIG. 4A may be a single circuit Sk, i connected by the local common bus line 401. It becomes an economical circuit configuration. On the other hand, the feature integration layer 103 (or the sensor input layer 1
When the connection from (01) to the feature detection layer 102 is made like this, the feature detection neuron detects an event called simultaneous arrival (or almost simultaneous arrival) of pulses representing a plurality of different feature elements. is there.
【0179】なお、結合が対称性を有する場合には、同
一荷重(位相遅延)量を与える結合を同一のシナプス結
合用小回路で代表させることにより、相当数のシナプス
結合が少数の回路で代表されるように構成することがで
きる。特に幾何学的特徴量の検出においては、受容野内
での結合荷重の分布が対称性を有する場合が多いので、
シナプス結合回路を減少させ回路規模を大幅に縮小にす
ることが可能である。When the connections have symmetry, the connections giving the same weight (phase delay) are represented by the same small synapse connection circuit, so that a considerable number of synapse connections are represented by a small number of circuits. It can be configured to be. Especially in the detection of geometric features, since the distribution of the connection load in the receptive field often has symmetry,
The number of synapse connection circuits can be reduced, and the circuit scale can be significantly reduced.
【0180】パルスの同時到着、或いは所定の位相変調
量を実現するシナプスでの学習回路の例としては、図5
の(C)に示すような回路要素を有するものを用いれば
よい。即ち、学習回路402をパルス伝播時間計測回路510
(ここで、伝播時間とは、ある層のニューロンの前シナ
プスでのパルス出力時間と次の層上にある出力先ニュー
ロンでの当該パルスの到着時間との時間差をさし、図3
の(B)では、シナプス遅延と伝播に要した時間との和
になる)、時間窓発生回路511、及び伝播時間が一定値
となるようにシナプス部でのパルス位相変調量を調整す
るパルス位相変調量調整回路512から構成できる。FIG. 5 shows an example of a learning circuit at a synapse that achieves simultaneous arrival of pulses or a predetermined amount of phase modulation.
What has a circuit element as shown in FIG. That is, the learning circuit 402 is connected to the pulse propagation time measurement circuit 510.
(Here, the propagation time is the time difference between the pulse output time at the pre-synapse of a neuron in a certain layer and the arrival time of the pulse at the output destination neuron on the next layer.
(B) shows the sum of the synapse delay and the time required for propagation), the time window generation circuit 511, and the pulse phase for adjusting the pulse phase modulation amount in the synapse so that the propagation time becomes a constant value. A modulation amount adjustment circuit 512 can be used.
【0181】伝播時間計測回路としては、後述するよう
な同一局所受容野を形成するペースメーカーニューロン
からのクロックパルスを入力し、所定の時間幅(時間
窓:図3の(B)参照)において、そのクロックパルス
のカウンター回路からの出力に基づき伝播時間を求める
ような構成などが用いられる。なお、時間窓は出力先ニ
ューロンの発火時点を基準として設定することにより、
以下に示すような拡張されたHebbの学習則が適用され
る。As the propagation time measuring circuit, a clock pulse from a pacemaker neuron that forms the same local receptive field as described later is input, and within a predetermined time width (time window: see FIG. 3B). A configuration in which the propagation time is obtained based on the output of the clock pulse from the counter circuit is used. By setting the time window based on the firing time of the output destination neuron,
The extended Hebb's learning rule as shown below is applied.
【0182】学習則 また、学習回路402は、同じカテゴリの物体が提示され
る頻度が大きくなるほど上記時間窓の幅が狭くなるよう
にしてもよい。このようにすることにより、見慣れた
(すなわち呈示回数、学習回数の多い)カテゴリのパタ
ーンであるほど、複数パルスの同時到着の検出(coincid
ence detection)モードに近づく様な動作をすることに
なる。このようにすることにより、特徴検出に要する時
間を短縮できる(瞬時検出の動作が可能となる)が、特徴
要素の空間配置の細かな比較分析や、類似するパターン
間の識別等を行うことには適さなくなる。 Learning Rule Also, the learning circuit 402 may make the width of the time window narrower as the frequency with which objects of the same category are presented increases. In this way, the more the pattern is familiar (that is, the number of presentations and the number of learnings is large), the detection of simultaneous arrival of multiple pulses (coincid
ence detection) mode. By doing so, the time required for feature detection can be reduced (the operation of instantaneous detection becomes possible) .However, it is possible to perform detailed comparative analysis of the spatial arrangement of feature elements, identification between similar patterns, etc. Becomes unsuitable.
【0183】遅延量の学習過程は、例えば、複素数ドメ
インに拡張することにより、特徴検出層のニューロンni
と特徴統合層のニューロンnjとの間の複素結合荷重Cij
は、 Cij=Sijexp(iPij) (10) のように与えられる。ここに、Sijは結合強度、Pijは位
相、その前のiは純虚数を表し、所定周波数でニューロ
ンjからニューロンiに出力されるパルス信号の時間遅れ
に相当する位相である。Sijはニューロンiの受容野構造
を反映し、認識検出する対象に応じて一般に異なる構造
を有する。これは学習(教師付き学習または自己組織
化)により別途形成されるか、或いは予め決められた構
造として形成される。The learning process of the delay amount is extended to, for example, a complex number domain, so that the neuron ni of the feature detection layer is obtained.
Connection weight C ij between the feature integration layer neuron n j
Is given as C ij = S ij exp (iP ij ) (10) Here, S ij is the coupling strength, P ij is the phase, and i before it is a pure imaginary number, and is a phase corresponding to the time delay of the pulse signal output from the neuron j to the neuron i at a predetermined frequency. S ij reflects the receptive field structure of neuron i and generally has a different structure depending on the target to be recognized and detected. This is formed separately by learning (supervised learning or self-organization) or is formed as a predetermined structure.
【0184】一方、遅延量に関する自己組織化のための
学習則は、On the other hand, the learning rule for self-organization regarding the delay amount is as follows:
【0185】[0185]
【外6】 で与えられる。但し、[Outside 6] Given by However,
【0186】[0186]
【外7】 はCの時間微分、τijは上記時間遅れ(予め設定された
量)、β(〜1)は定数を示す。[Outside 7] Is the time derivative of C, τ ij is the above time delay (preset amount), and β (β1) is a constant.
【0187】上式を解くと、Cijはβexp(-2πiτij)に
収束し、従って、Pijは−τijに収束する。学習則適用
の例を図3の(B)に示した学習時の時間窓を参照して
説明すると、シナプス結合の前側ニューロン(n1,n2,n
3)と後側ニューロン(特徴検出細胞)とが、その学習時
間窓の時間範囲において、ともに発火しているときにだ
け、式(11)に従って結合荷重が更新される。なお、
図3の(B)において、特徴検出細胞は時間窓の経過後
に発火しているが、同図の時間窓経過前に発火してもよ
い。[0187] Solving the above equation, C ij converges to βexp (-2πiτ ij), hence, P ij converges to-tau ij. An example of the application of the learning rule will be described with reference to the time window at the time of learning shown in FIG. 3 (B). The anterior neuron (n1, n2, n
The connection weight is updated according to equation (11) only when 3) and the posterior neuron (feature detection cell) are firing together in the time range of the learning time window. In addition,
In FIG. 3B, the feature detection cells are fired after the elapse of the time window, but may be fired before the elapse of the time window in FIG.
【0188】特徴検出層処理 以下、特徴検出層で主に行われる処理(学習時、認識
時)について説明する。The processing mainly performed in the feature detection layer (at the time of learning and recognition) will be described below.
【0189】各特徴検出層102においては、前述したよ
うに、各スケールレベルごとに設定される処理チャネル
内において、同一受容野からの複数の異なる特徴に関す
るパルス信号を入力し、時空間的重み付き総和(荷重
和)演算と閾値処理を行う。各特徴量に対応するパルス
は、予め学習により定められた遅延量(位相) により、
所定の時間間隔で到着する。In each of the feature detection layers 102, as described above, a pulse signal relating to a plurality of different features from the same receptive field is input into a processing channel set for each scale level, A total (load sum) calculation and threshold processing are performed. The pulse corresponding to each feature amount is determined by the delay amount (phase) determined in advance by learning.
Arrives at predetermined time intervals.
【0190】このパルス到着時間パターンの学習制御
は、本願の主眼ではないので詳しくは説明しないが、例
えば、ある図形パターンを構成する特徴要素がその図形
の検出に最も寄与する特徴であるほど先に到着し、その
ままでは、パルス到着時間がほぼ等しくなる特徴要素間
では、互いに一定量だけ時間的に離れて到着するような
競争学習を導入する。或いは、予め決められた特徴要素
(認識対象を構成する特徴要素であって、特に重要と考
えられるもの:例えば、平均曲率の大きい特徴、直線性
の高い特徴など)間で異なる時間間隔で到着する様に設
計してもよい。The learning control of the pulse arrival time pattern is not the focus of the present application and will not be described in detail. For example, the more the characteristic elements constituting a certain figure pattern are the most contributing to the detection of the figure, the earlier. Introducing competitive learning is such that, as they arrive, pulse elements having substantially the same pulse arrival times arrive at a certain amount of time apart from each other. Alternatively, a predetermined feature element
It may be designed to arrive at different time intervals between (feature elements constituting the recognition target, which are considered to be particularly important: for example, a feature having a large average curvature, a feature having a high linearity, etc.).
【0191】本実施形態では、前段の層である特徴統合
層上の同一受容野内の各低次特徴要素に相当するニュー
ロンは、それぞれ所定の位相で同期発火(パルス出力)
することになる。In this embodiment, neurons corresponding to each lower-order feature element in the same receptive field on the feature integration layer, which is the preceding layer, are synchronously fired (pulse output) at predetermined phases.
Will do.
【0192】一般的に、特徴統合層のニューロンであっ
て、位置が異なるが同一の高次の特徴を検出する特徴検
出ニューロンへの結合が存在する(この場合、受容野は
異なるが、高次の同じ特徴を構成する結合を有する)。
この時、これら特徴検出ニューロンとの間で同期発火す
ることはいうまでもない。但し、その出力レベル(ここ
では位相基準とするが、周波数、振幅、パルス幅基準と
なる構成でもよい)は、特徴検出ニューロンの受容野ご
とに与えられる複数ペースメーカニューロンからの寄与
の総和(或いは平均など)によって決まる。また、特徴
検出層102上の各ニューロンにおいては、入力パルスの
時空間的重み付き総和(荷重和)の演算は、ニューロン
に到着したパルス列について、所定幅の時間窓において
のみ行われる。時間窓内の重み付き加算を実現する機構
は、図2に示したニューロン素子回路に限らず、他の方
法で実現してもよいことは言うまでもない。In general, there is a connection to a feature detection neuron that detects the same higher-order feature at a different position, which is a neuron in the feature integration layer. Having the same characteristics of the combination).
At this time, it is needless to say that synchronous firing occurs with these feature detection neurons. However, the output level (here, the phase is used as a reference, but the frequency, the amplitude, and the pulse width may be used as the reference) may be determined by summing (or averaging) contributions from a plurality of pacemaker neurons provided for each receptive field of the feature detection neuron. Etc.). In each neuron on the feature detection layer 102, the calculation of the spatiotemporally weighted sum of the input pulses (sum of weights) is performed only in a time window of a predetermined width for the pulse train that has arrived at the neuron. The mechanism for implementing the weighted addition within the time window is not limited to the neuron element circuit shown in FIG. 2, and it goes without saying that the mechanism may be implemented by another method.
【0193】この時間窓は、実際のニューロンの不応期
(refractory period)以外の時間帯にある程度対応して
いる。即ち、不応期(時間窓以外の時間範囲)にはどのよ
うな入力を受けてもニューロンからの出力はないが、そ
の時間範囲以外の時間窓では入力レベルに応じた発火を
行うという点が実際のニューロンと類似している。This time window corresponds to the refractory period of the actual neuron.
(refractory period) It corresponds to the time zone to some extent. In other words, there is no output from the neuron regardless of any input during the refractory period (time range other than the time window), but the firing according to the input level occurs in the time window other than that time range. Is similar to the neuron.
【0194】図3の(B)に示す不応期は、特徴検出細
胞の発火直後から次の時間窓開始時刻までの時間帯であ
る。不応期の長さと時間窓の幅は任意に設定可能である
ことはいうまでもなく、同図に示したように時間窓に比
べて不応期を短くとらなくてもよい。ペースメーカニュ
ーロンを使わなくても時間窓の開始時刻は、特徴検出層
と特徴統合層のニューロン間でニューロン間の弱相互結
合と所定の結合条件などにより同期発火するメカニズム
(E.M.Izhikevich, 1999 'Weakly Pulse-Coupled Oscil
lation, FM Interactions, Synchronization, and Osci
llatory Associative Memory' IEEE Trans. on Neural
Networks, vol.10. pp.508-526.)を導入することによ
り、これらニューロン間で同一となる。この同期発火
は、一般的にニューロン間での相互結合と引き込み現象
によりもたらされることが知られている。The refractory period shown in FIG. 3B is a time period from immediately after the firing of the feature detection cells to the start of the next time window. Needless to say, the length of the refractory period and the width of the time window can be arbitrarily set, and the refractory period does not have to be shorter than the time window as shown in FIG. Even without using a pacemaker neuron, the start time of the time window is determined by the mechanism of synchronous firing between the neurons in the feature detection layer and the feature integration layer due to the weak mutual coupling between the neurons and the predetermined connection conditions (EMIzhikevich, 1999 'Weakly Pulse- Coupled Oscil
lation, FM Interactions, Synchronization, and Osci
llatory Associative Memory 'IEEE Trans.on Neural
Networks, vol.10. Pp.508-526.), These neurons are identical. It is known that the synchronous firing is generally caused by a mutual coupling and a pull-in phenomenon between neurons.
【0195】従って、本実施形態においてもニューロン
間の弱相互結合と所定のシナプス結合条件を満たすよう
に構成することによりペースメーカニューロンなしで、
このような効果をもたらすことができる。Therefore, also in the present embodiment, by configuring so as to satisfy the weak mutual connection between neurons and a predetermined synaptic connection condition, the pacemaker neuron can be eliminated.
Such an effect can be obtained.
【0196】本実施形態では、図6に模式的に示すよう
に、既に説明したメカニズムとして、例えば各特徴検出
層ニューロンごとに、その同一受容野からの入力を受け
るようなペースメーカニューロン(固定周波数でパルス
出力)によるタイミング情報(クロックパルス)の入力
により、上述した開始時期の共通化をもたらすようにし
てもよい。In the present embodiment, as schematically shown in FIG. 6, as a mechanism already described, for example, a pacemaker neuron (for a fixed frequency) which receives an input from the same receptive field for each feature detection layer neuron By inputting timing information (clock pulse) based on (pulse output), the above-described common start timing may be provided.
【0197】このように構成した場合には、時間窓の同
期制御は(仮に必要であったとしても)ネットワーク全
体にわたって行う必要が無く、また、上記したようなク
ロックパルスの揺らぎ、変動があっても、局所的な同一
受容野からの出力に対して一様にその影響を受ける(窓
関数の時間軸上での位置の揺らぎは同一受容野を形成す
るニューロン間で同一となる)ので、特徴検出の信頼性
は劣化することはない。このような局所的な回路制御に
より信頼度の高い同期動作を可能にするため、回路素子
パラメータに関するばらつきの許容度も高くなる。In the case of such a configuration, it is not necessary to perform the synchronization control of the time window (if it is necessary) over the entire network, and there is a fluctuation and fluctuation of the clock pulse as described above. Is also uniformly affected by the output from the local receptive field (the fluctuation of the position of the window function on the time axis is the same between neurons forming the same receptive field). The reliability of detection does not degrade. Since a highly reliable synchronous operation is enabled by such local circuit control, the tolerance of variation regarding circuit element parameters is also increased.
【0198】以下、簡単のために、三角形を特徴として
検出する特徴検出ニューロンについて説明する。その前
段の特徴統合層103は、図7の(C)に示すような各種
向きを持ったL字パターン(f11, f12, …, )、L字パタ
ーンとの連続性(連結性)を有する線分の組み合わせパ
ターン(f21, f22,…)、三角形を構成する2辺の一部の
組み合わせ(f31,…)、などのような図形的特徴(特徴要
素)に反応するものとする。Hereinafter, a feature detecting neuron that detects a triangle as a feature will be described for simplicity. The feature integration layer 103 at the preceding stage has L-shaped patterns (f 11 , f 12 ,...) Having various orientations as shown in FIG. 7C, and continuity (connectivity) with the L-shaped pattern. Those that respond to graphical features (feature elements) such as a combination pattern (f 21 , f 22 ,...) Of the line segments, and a combination (f 31 ,. I do.
【0199】また、同図のf41,f42,f43は向きの異なる
三角形を構成する特徴であって、f11,f12,f13に対応す
る特徴を示している。学習により層間結合をなすニュー
ロン間に固有の遅延量が設定された結果、三角形の特徴
検出ニューロンにおいては、時間窓を分割して得られる
各サブ時間窓(タイムスロット)(w1,w2,…)において、
三角形を構成する主要かつ異なる特徴に対応するパルス
が到着するように予め設定がなされる。Also, f 41 , f 42 , and f 43 in the figure are features constituting triangles having different directions, and indicate features corresponding to f 11 , f 12 , and f 13 . As a result of setting a specific delay amount between neurons forming interlayer connection by learning, in a triangular feature detection neuron, each sub time window (time slot) (w 1 , w 2 , …)
The setting is made in advance so that the pulses corresponding to the main and different features constituting the triangle arrive.
【0200】例えば、時間窓をn分割した後のw1, w2,
…、wnには、図7の(A)に示す如く、全体として三角形
を構成するような特徴のセットの組み合わせに対応する
パルスが初めに到着する。ここに、L字パターン(f11,
f12, f13)は、それぞれw1,w2,w3内に到着し、特徴要素
(f21,f22,f23)に対応するパルスは、それぞれw1, w2,w3
内に到着するように学習により遅延量が設定されてい
る。For example, w 1 , w 2 ,
, Wn, as shown in FIG. 7A, a pulse corresponding to a combination of a set of features that constitutes a triangle as a whole arrives first. Here, the L-shaped pattern (f 11 ,
f 12 , f 13 ) arrive within w 1 , w 2 , w 3 respectively, and the feature element
pulse corresponding to (f 21, f 22, f 23) , respectively w 1, w 2, w 3
The amount of delay is set by learning so as to arrive within.
【0201】特徴要素(f31,f32,f33)に対応するパルス
も同様の順序で到着する。図7の(A)の場合、一つのサ
ブ時間窓(タイムスロット)にそれぞれ一つの特徴要素
に対応するパルスが到着する。サブ時間窓に分割する意
味は、各サブ時間窓で時間軸上に展開表現された異なる
特徴要素に対応するパルスの検出(特徴要素の検出)を
個別にかつ確実に行うことにより、それらの特徴を統合
する際の統合の仕方、例えば、すべての特徴要素の検出
を条件とするか、或いは一定割合の特徴検出を条件とす
るか等の処理モードの変更可能性や適応性を高めること
にある。The pulses corresponding to the characteristic elements (f 31 , f 32 , f 33 ) arrive in the same order. In the case of FIG. 7A, a pulse corresponding to one characteristic element arrives in one sub time window (time slot). The meaning of dividing into sub-time windows is that, by performing pulse detection (detection of characteristic elements) corresponding to different characteristic elements developed and expressed on the time axis in each sub-time window individually and reliably, those characteristics are obtained. The purpose of the present invention is to increase the changeability and adaptability of the processing mode, such as whether the conditions of all feature elements are to be detected or a certain percentage of features are to be detected. .
【0202】例えば、認識(検出)対象が顔であり、そ
れを構成するパーツである目の探索(検出)が重要であ
るような状況(目のパターン検出の優先度を視覚探索に
おいて高く設定したい場合)においては、高次の特徴検
出層からのフィードバック結合を導入することにより、
選択的に目を構成する特徴要素パターンに対応する反応
選択性(特定の特徴の検出感度)を高めたりすることが
できる。このようにすることにより、高次の特徴要素
(パターン) を構成する低次の特徴要素により高い重
要度を与えて検出することができる。For example, a situation in which the recognition (detection) target is a face, and the search (detection) of the eyes, which is a part of the face, is important (the eye pattern detection priority should be set high in the visual search) Case), by introducing feedback coupling from higher order feature detection layers,
It is possible to selectively enhance the reaction selectivity (detection sensitivity of a specific feature) corresponding to the feature element pattern constituting the eye. By doing so, it is possible to give higher importance to lower-order feature elements constituting higher-order feature elements (patterns) and detect them.
【0203】また、重要な特徴ほど早いサブ時間窓にパ
ルスが到着するように予め設定されているとすると、当
該サブ時間窓での重み関数値が他のサブ時間窓での値よ
り大きくすることにより、重要度の高い特徴ほど検出さ
れやすくすることができる。この重要度(特徴間の検出
優先度)は学習により獲得されるか、予め定義しておく
こともできる。Further, assuming that a pulse is set in advance so that a more important feature arrives in a sub time window earlier, the weight function value in the sub time window is set to be larger than the value in the other sub time windows. Thereby, the feature having a higher importance can be more easily detected. This importance (detection priority between features) can be obtained by learning or can be defined in advance.
【0204】従って、一定割合の特徴要素の検出という
事象さえ起きればよいのであれば、サブ時間窓への分割
は殆ど意味が無くなり、一つの時間窓において行えばよ
い。Therefore, if it is only necessary to detect a certain percentage of characteristic elements, the division into sub-time windows is almost meaningless, and may be performed in one time window.
【0205】なお、複数(3つ)の異なる特徴要素に対
応するパルスがそれぞれ到着して加算されるようにして
もよい(図7の(D)参照)。即ち、一つのサブ時間窓
(タイムスロット)に複数の特徴要素(図7の(D))、
或いは任意の数の特徴要素に対応するパルスが入力され
ることを前提としてもよい。この場合、図7の(D)で
は、初めのサブ時間窓では、三角形の頂角部分f11の検
出を支持する他の特徴要素f21、f23に対応するパルス
が到着し、同様に2番目のサブ時間窓には頂角部分f12
の検出を支持するような他の特徴要素f22、f31のパル
スが到着している。Incidentally, pulses corresponding to a plurality of (three) different characteristic elements may be respectively arrived and added (see FIG. 7D). That is, one sub time window
(Time slot) includes a plurality of characteristic elements ((D) in FIG. 7),
Alternatively, it may be assumed that pulses corresponding to an arbitrary number of characteristic elements are input. In this case, in FIG. 7 (D), in the first sub-time window, pulses corresponding to the other feature elements f 21 and f 23 that support the detection of the apex portion f 11 of the triangle arrive, and similarly, 2 In the second sub-time window, the vertex angle part f 12
The pulses of other feature elements f 22 and f 31 have arrived that support the detection of.
【0206】なお、サブ時間窓(タイムスロット)への
分割数、各サブ時間窓(タイムスロット)の幅および特
徴のクラスおよび特徴に対応するパルスの時間間隔の割
り当てなどは上述した説明に限らず、変更可能であるこ
とはいうまでもない。例えば、上述した特徴要素の他
に'X','+'等の特徴要素に対応するサブ時間窓を設定
してもよい。三角形の図形検出にはこのような特徴要素
は冗長(又は不要)ともいえるが、逆に、これらが存在し
ないことを検出することにより、三角形という図形パタ
ーンの検出確度を高めることができる。The number of divisions into sub-time windows (time slots), the width of each sub-time window (time slot), the class of the feature, and the allocation of the pulse time interval corresponding to the feature are not limited to those described above. Needless to say, it can be changed. For example, a sub time window corresponding to a feature element such as 'X' or '+' may be set in addition to the above-described feature element. Such feature elements can be said to be redundant (or unnecessary) in the detection of a figure of a triangle, but conversely, the detection accuracy of a figure pattern of a triangle can be increased by detecting that they do not exist.
【0207】また、これら特徴要素の組み合わせでは表
されないような変形を加えた場合(例えば、一定範囲内
の回転を与えた場合)に対しても、上記特徴要素を表す
特徴統合層のニューロンの出力パルスは、理想的なパタ
ーンからのずれの程度に応じた連続的な位相遅れ(遅延
量:但し、予め定めたサブ時間窓(タイムスロット)に
パルスが到着する範囲)をもって反応する(いわゆるgra
ceful degradation)ため、検出される図形特徴の変形
に対する許容範囲が一定レベル以上になるよう出力の安
定化が図られている。例えば、図7の(C)に示す特徴
f11、f12、f13に対応する特徴により形成される三角
形(Q1)と、f41、f42、f43に対応する特徴により
形成される三角形(Q2)とでは、少なくとも向きが互
いに異なっている筈である。Further, even when a deformation not represented by the combination of these feature elements is applied (for example, when rotation within a certain range is given), the output of the neuron of the feature integration layer representing the above-mentioned feature element is obtained. The pulse responds with a continuous phase delay (delay amount: a range in which the pulse arrives in a predetermined sub-time window (time slot)) according to the degree of deviation from the ideal pattern (so-called “gra”).
For this reason, the output is stabilized so that the allowable range for the deformation of the detected graphic feature becomes a certain level or more. For example, the triangle formed by the features corresponding to the triangle (Q1) which is formed by the features corresponding to the features f 11, f 12, f 13 shown in (C) of FIG. 7, f 41, f 42, f 43 In (Q2), at least the directions should be different from each other.
【0208】この場合、各特徴に対応する検出(統合)
細胞が存在するとき、両三角形の中間的な向きに相当す
る三角形(Q3)に対しては、f11、f12、f13に対応
する検出(統合)細胞とf41、f42、f43に対応する検出
(細胞)とは、いずれも最大応答出力より低く、直接的
には特徴の種類に応じて決まる受容野構造としてのフィ
ルタカーネルとの畳み込み演算値に応じた出力レベルと
なり、これら全ての細胞からの出力としてのベクトル量
は中間的な図形に固有なものとして統合すると、2つの
三角形の状態の中間的な図形(回転を与えた場合)の検
出が可能になる。In this case, detection (integration) corresponding to each feature
When cells are present, for a triangle (Q3) corresponding to an intermediate orientation of the two triangles, f 11, f 12, f 13 corresponding to the detection (integration) cells and f 41, f 42, f 43 The detection (cells) corresponding to the above are all lower than the maximum response output, and are directly at the output level according to the convolution operation value with the filter kernel as the receptive field structure determined according to the type of feature. If the vector quantity as an output from the cell is integrated as being unique to the intermediate figure, it is possible to detect an intermediate figure (when rotated) in the state of two triangles.
【0209】例えば、定性的には、回転角度が小さく、
Q1に近いほどf11、f12、f13に対応する細胞からの
出力が相対的に大きく、逆にQ2に近いほどf41、
f42、f 43に対応する細胞からの出力が大きくなる。For example, qualitatively, the rotation angle is small,
F closer to Q111, F12, F13From cells corresponding to
The output is relatively large, and conversely, the closer it is to Q2, the more f41,
f42, F 43The output from the cell corresponding to is increased.
【0210】パルス出力の時空間的統合及びネットワー
ク特性 次に入力パルスの時空間的重み付き総和(荷重和)の演
算について説明する。図7の(B)に示す如く、各ニュ
ーロンでは、上記サブ時間窓(タイムスロット)毎に所
定の重み関数(例えばGaussian)で入力パルスの荷重和
がとられ、各荷重和の総和が閾値と比較される。τjは
サブ時間窓jの重み関数の中心位置を表し、時間窓の開
始時刻基準(開始時間からの経過時間)で表す。重み関
数は一般に所定の中心位置(検出予定の特徴が検出され
た場合のパルス到着時間を表す)からの距離(時間軸上
でのずれ)の関数になる。 Spatial and temporal integration of pulse output and network
Click properties Next calculation of spatial weighted sum when the input pulses (weighted sum) will be described. As shown in FIG. 7B, in each neuron, the weighted sum of the input pulses is calculated by a predetermined weighting function (for example, Gaussian) for each of the sub-time windows (time slots), and the sum of the weighted sums is a threshold value. Be compared. τ j represents the center position of the weight function of the sub-time window j, and is represented by the start time reference of the time window (the elapsed time from the start time). The weight function is generally a function of a distance (shift on a time axis) from a predetermined center position (representing a pulse arrival time when a feature to be detected is detected).
【0211】従って、ニューロンの各サブ時間窓(タイ
ムスロット)の重み関数のピーク位置τが、ニューロン
間の学習後の時間遅れとすると、入力パルスの時空間的
重み付き総和(荷重和)を行う神経回路網は、一種の時
間軸ドメインの動径基底関数ネットワーク(Radial Bas
is Function Network;以下RBFと略す)と見なすこ
とができる。Gaussian関数の重み関数を用いたニューロ
ンniの時間窓FTiは、各サブ時間窓毎の広がりをσ、係
数因子(シナプス結合荷重値に相当)をbijで表すと、Therefore, assuming that the peak position τ of the weight function of each sub-time window (time slot) of a neuron is a time delay after learning between neurons, a spatio-temporal weighted sum of input pulses (sum of weights) is performed. Neural networks are a kind of time-domain radial basis function network (Radial Bass Network).
is Function Network; hereinafter abbreviated as RBF). The time window F Ti of the neuron n i using the weight function of the Gaussian function is expressed as σ and the coefficient factor (equivalent to the synaptic connection weight value) of each sub-time window as b ij .
【0212】[0212]
【外8】 [Outside 8]
【0213】なお、重み関数としては、負の値をとるも
のであってもよい。例えば、ある特徴検出層のニューロ
ンが三角形を最終的に検出することが予定されている場
合に、その図形パターンの構成要素でないことが明らか
な特徴(Ffaulse)(例えば、前述した'X','+'等)
が検出された場合には、他の特徴要素からの寄与が大き
くても三角形の検出出力が最終的になされないように、
入力の総和値算出処理において、当該特徴(Ffaulse)
に対応するパルスからは、負の寄与を与えるような重み
関数及び特徴検出(統合)細胞からの結合を与えておくこ
とができる。Note that the weight function may take a negative value. For example, when a neuron of a certain feature detection layer is to finally detect a triangle, a feature (F faulse ) that is clearly not a component of the figure pattern (for example, “X”, '+' Etc.)
Is detected, the detection output of the triangle is not finally made even if the contribution from other feature elements is large,
In the input sum calculation processing, the characteristic (F faulse )
Can be given a weighting function that gives a negative contribution and a coupling from the feature detection (integrated) cells.
【0214】特徴検出層のニューロンniへの入力信号の
時空間和Xi(t)は、[0214] space sum when the input signal to the neuron n i of the feature detection layer X i (t) is
【0215】[0215]
【外9】 と表せる。ここに、εjは、ニューロンnjからの出力パ
ルスの初期位相であり、ニューロンniとの同期発火によ
り、0に収束するか、又はペースメーカニューロンから
のタイミングパルス入力により、時間窓の位相を0に強
制同期する場合には、εjは常に0としてよい。図7の
(A)のパルス入力と同(B)に示す重み関数による荷
重和とを実行すると、図7の(E)に示すような荷重和
値の時間的遷移が得られる。特徴検出ニューロンは、こ
の荷重和値が閾値(Vt)に達するとパルス出力を行う。[Outside 9] Can be expressed as Here, ε j is the initial phase of the output pulse from the neuron n j , and converges to 0 by synchronous firing with the neuron n i , or changes the phase of the time window by the timing pulse input from the pacemaker neuron. When forcibly synchronizing to 0, ε j may always be 0. When the pulse input of FIG. 7A and the weighted sum by the weight function shown in FIG. 7B are executed, a temporal transition of the weighted sum value as shown in FIG. 7E is obtained. The feature detection neuron outputs a pulse when the weighted sum reaches a threshold value (Vt).
【0216】ニューロンniからの出力パルス信号は、前
述したように、入力信号の時空間和(いわゆる総入力
和)のsquashing非線形関数となる出力レベルと学習に
より与えられた時間遅れ(位相)をもって上位層のニュ
ーロンに出力される(パルス出力は固定周波数(2値)と
し、学習によって決まる固定遅延量に相当する位相に入
力信号の時空間和についてのsquashing非線形関数とな
る位相変調量を加えて出力される)。[0216] The output pulse signal from the neuron n i, as described above, with the spatio-temporal sum squashing nonlinear function to become an output level and time delay given by learning (the so-called total input sum) of the input signal (phase) Output to neurons in the upper layer (pulse output is fixed frequency (binary), and phase modulation amount which becomes a squashing nonlinear function for spatio-temporal sum of input signal is added to phase corresponding to fixed delay amount determined by learning. Output).
【0217】処理フロー概要 図8は、上述した各層の処理手順を示すフローチャート
である。低次特徴検出から高次特徴検出までの処理の流
れをまとめて示すと、同図のようになる。先ず、ステッ
プS801で、低次特徴検出(例えば、各位置でのGabor wa
velet変換係数の算出など)を行なう。次に、ステップS
802で、それらの特徴の局所平均化等を行う低次特徴の
統合処理を行う。更に、ステップS803〜804で中次特徴
の検出と統合、ステップS805〜806で高次特徴の検出と
統合を行う。そして、ステップS807では、最終層の出力
として、認識(検出)対象の有無またはその検出位置出力
が行われる。ステップS803〜804とS805〜806に割り当て
る層数は、課題(認識対象など)に応じて任意に設定又
は変更することができる。[0217] Processing Flow Overview Figure 8 is a flowchart illustrating a processing procedure of each layer described above. The flow of processing from low-order feature detection to high-order feature detection is summarized as shown in FIG. First, in step S801, low-order feature detection (for example, Gabor wa at each position)
velet conversion coefficients). Next, step S
In step 802, a low-order feature integration process for performing local averaging of those features and the like is performed. Further, detection and integration of middle-order features are performed in steps S803 to S804, and detection and integration of higher-order features are performed in steps S805 to S806. Then, in step S807, the presence or absence of a recognition (detection) target or the detection position output is performed as the output of the final layer. The number of layers allocated to steps S803 to 804 and S805 to 806 can be arbitrarily set or changed according to the task (recognition target or the like).
【0218】図9は、各特徴検出ニューロン602の処理
の手順を示すフローチャートである。まず、ステップS9
01で、複数の特徴カテゴリに応じたパルスを、前層であ
る入力層101または特徴統合層103において同一受容野10
5を形成するニューロン601から入力を受け、ステップS9
02で、ペースメーカニューロン603から入力される(又
は前層ニューロンとの相互作用により得られる)局所同
期信号に基づき、時間窓及び重み関数を発生させ、ステ
ップS903で、それぞれについての所定の時間的重み関数
による荷重和をとり、ステップS904で、閾値に達したか
否かの判定を行い、閾値に達した場合には、ステップS9
05で、パルス出力を行う。なお、ステップS902と903は
時系列的に示したが、実際にはほぼ同時に行われる。FIG. 9 is a flowchart showing the processing procedure of each feature detection neuron 602. First, step S9
In 01, a pulse corresponding to a plurality of feature categories is applied to the same receptive field 10 in the input layer 101 or the feature integration layer 103 as the preceding layer.
Step S9: receiving input from the neuron 601 forming 5
In step 02, a time window and a weighting function are generated based on a local synchronization signal input from the pacemaker neuron 603 (or obtained by interaction with a preceding layer neuron). The sum of the weights by the function is obtained, and it is determined in step S904 whether or not the threshold has been reached.
At 05, pulse output is performed. Although steps S902 and S903 are shown in time series, they are actually performed almost simultaneously.
【0219】また、各特徴統合ニューロンの処理の手順
は、図10のフローチャートに示す通りである。すなわ
ち、ステップS1001において、同一カテゴリをなす特徴
検出の処理モジュール104であって、当該ニューロンに
固有の局所受容野をなす特徴検出ニューロンからのパル
ス入力を受け、ステップS1002で、所定の時間幅(不応
期以外の時間範囲)において入力パルスの加算を行う。
ステップS1003で、入力パルスの総和値(例えば、電位
基準で測る)が閾値に達したか否かの判定を行ない、閾
値に達した場合、ステップS1004で、その総和値に応じ
た位相でパルス出力をする。The processing procedure of each feature integration neuron is as shown in the flowchart of FIG. That is, in step S1001, a pulse is input from the feature detection processing module 104 in the same category, which is a feature detection neuron that forms a local receptive field specific to the neuron. Input pulses are added in a time range other than the initial period.
In step S1003, a determination is made as to whether the total value of the input pulses (measured on the basis of potential, for example) has reached a threshold value. If the threshold value has been reached, in step S1004, a pulse is output at a phase corresponding to the total value. do.
【0220】注視位置の設定制御に関する主な処理の流
れの概要を整理すると、図27のようになる。先ず、ス
テップS2701で、注視位置を画面中央に設定し、注視領
域サイズを画面全体とする。次に、ステップS2702で、
最上位層までのWhat経路による処理過程を実行する。こ
の段階では、前述したごとく、いわゆる対象を知覚した
状態、即ち認識状態には至っていない。FIG. 27 shows an outline of the flow of main processing related to gaze position setting control. First, in step S2701, the gaze position is set at the center of the screen, and the gaze area size is set to the entire screen. Next, in step S2702,
Executes the process of the What path up to the highest layer. At this stage, as described above, a so-called object is not perceived, that is, a recognition state has not been reached.
【0221】その後、ステップS2703で、最上位層相当
の特徴位置検出層(3,M)出力からのWhere経路等を介した
フィードバック量等に基づき、最大フィードバック量ま
たは所定の最大評価値(式(5))を受ける注視制御ニュ
ーロンに対応する特徴統合層上のニューロンを新たな注
視位置とし、その特徴統合層ニューロンが属する処理チ
ャネルに固有の注視領域のサイズが設定され、ステップ
S2704で、What経路での認識処理が行われる。次に、ス
テップS2705で、注視位置更新判定を行い、更新する場
合には、注視領域の更新制御として、最新の注視位置の
近傍領域内で次候補注視制御ニューロンの探索処理(ス
テップS2706)を行う。Then, in step S2703, the maximum feedback amount or a predetermined maximum evaluation value (formula (3)) is obtained based on the feedback amount via the Where path from the output of the feature position detection layer (3, M) corresponding to the uppermost layer. 5) The neuron on the feature integration layer corresponding to the gaze control neuron to be received is set as a new gaze position, and the size of the gaze region specific to the processing channel to which the feature integration layer neuron belongs is set.
In S2704, recognition processing in the What path is performed. Next, in step S2705, a gaze position update determination is performed, and in the case of updating, a search process for a next candidate gaze control neuron (step S2706) is performed as an update control of the gaze region in a region near the latest gaze position. .
【0222】ここで、注視領域の更新判定とは、例え
ば、近傍領域内に他のフィードバック量が十分なレベル
にある注視制御ニューロン(「次候補ニューロン」とい
う)が存在するか否かの判定、近傍領域には他に次候補
ニューロンが存在せず、かつ、画面内に未設定の注視位
置が存在するか否かの判定(この場合には、不図示の未
設定注視位置の有無に関する判定回路を要する)、或い
は外部からの制御信号の入力有無の判定等である。Here, the update determination of the gaze area is performed, for example, by determining whether or not there is a gaze control neuron (referred to as “next candidate neuron”) having a sufficient feedback amount in the neighboring area. It is determined whether or not there is no next candidate neuron in the neighboring area and whether or not an unset gaze position exists in the screen (in this case, a determination circuit for the presence or absence of an unset gaze position not shown) Or the determination of the presence or absence of an input of a control signal from the outside.
【0223】第一の場合には、次候補ニューロンの一つ
を前述した方法で選択して次の注視位置等を設定する。
第二の場合は、最新の近傍領域外の任意の未設定位置
(又は近傍領域に隣接する任意の未設定位置など)に次の
注視位置を設定する。第三の場合は、例えばユーザがシ
ャッタボタンを押す動作信号を制御信号として検知しな
い場合、ユーザが更新を促す指示を与え、その更新指示
の信号が制御信号として検知される場合である。In the first case, one of the next candidate neurons is selected by the above-described method, and the next gaze position and the like are set.
In the second case, any unset position outside the latest neighborhood
(Or any unset position adjacent to the neighboring area) sets the next gaze position. The third case is a case where, for example, when the operation signal of pressing the shutter button by the user is not detected as a control signal, the user gives an instruction to prompt update, and the signal of the update instruction is detected as the control signal.
【0224】ステップS2707で、更新の結果、前述した
準最大フィードバック量を受ける注視制御ニューロンを
活性化して、当該ニューロンから特徴統合層へ(図20
の場合)、またはゲーティング層へ(図21の場合)次
の注視領域に関する設定信号が出力される。ステップS2
708で、特定処理チャネルの一部がオープンされること
により、更新された注視領域に該当する特徴統合層ニュ
ーロンから特徴検出層(1,1)への信号の伝播が行われ
る。一方、注視更新判定の結果、更新を行わない場合
(上記判定の3つのケースを参照)には、注視領域の更新
制御動作を終了する。In step S2707, as a result of the update, the gaze control neuron receiving the above-described sub-maximum feedback amount is activated, and the neuron is moved from the neuron to the feature integration layer (FIG.
In this case, or to the gating layer (in the case of FIG. 21), a setting signal for the next gaze area is output. Step S2
At 708, by opening a part of the specific processing channel, a signal is propagated from the feature integration layer neuron corresponding to the updated gaze area to the feature detection layer (1, 1). On the other hand, as a result of the gaze update determination, no update is performed
In the three cases (see the above three cases of determination), the update control operation of the watch area is ended.
【0225】ネットワークその他構成上の変形例 入力パルスは空間ドメインの各位置での特徴(或いは、
特徴要素の空間的配置関係)に対応するものであるか
ら、時空間的RBFを構成することも可能である。 Network and Other Modifications of the Configuration The input pulse has a feature (or
(Spatial arrangement relationship of characteristic elements), so that a spatio-temporal RBF can be configured.
【0226】具体的には、各ニューロン出力値に対して
更に重み付けを行って加算を行うことにより、十分な数
の予め定められた特徴要素のセット(特徴検出細胞)お
よび十分な数のサブ時間窓(タイムスロット)での重み
付き総和(荷重和)の演算とから任意の図形パターンに
対応するパルスパターンの時空間関数を表現することが
できる。認識対象のカテゴリ及びその形状の変化がある
程度限られていれば、必要な特徴検出細胞やサブ時間窓
(タイムスロット)の数を少なくすることができる。Specifically, each neuron output value is further weighted and added to obtain a sufficient number of predetermined feature element sets (feature detection cells) and a sufficient number of sub-time values. A spatio-temporal function of a pulse pattern corresponding to an arbitrary figure pattern can be expressed by calculating a weighted sum (load sum) in a window (time slot). If the change of the recognition target category and its shape is limited to some extent, necessary feature detection cells and sub-time windows
(Time slots) can be reduced.
【0227】本実施形態では、共通バスは同一受容野に
対して一つ割り当てられるような局所的なバスラインと
したが、これに限らず、ある層から次の層への層間結合
は同一バスラインで行うように、時間軸上でパルス位相
遅延量を分割設定してもよい。また、重なり割合が比較
的大きい隣接受容野間では、共通のバスラインを用いる
ように構成しても良い。In this embodiment, the common bus is a local bus line that is assigned to the same receptive field. However, the present invention is not limited to this. As in the case of the line, the pulse phase delay amount may be divided and set on the time axis. In addition, a common bus line may be used between adjacent receptive fields having a relatively large overlapping ratio.
【0228】なお、上述した時空間的RBFによらず
に、各サブ時間窓(タイムスロット)内での重み付き積
和演算の結果が非線形なsquashing関数値となるように
処理(或いは、閾値処理)して、それらの積をとっても
よい。例えば、不図示の回路構成により、閾値処理結果
(2値)を各サブ時間窓ごとに得て、一時記憶手段に格納
するとともに、順次求まる閾値処理結果の論理積を時系
列的に求めるようにすればよい。It should be noted that processing is performed so that the result of the weighted product-sum operation within each sub-time window (time slot) becomes a non-linear squashing function value without using the above-mentioned spatio-temporal RBF (or threshold processing). ) And take the product of them. For example, a threshold processing result is obtained by a circuit configuration (not shown).
(Binary) may be obtained for each sub time window and stored in the temporary storage means, and the logical product of the threshold processing results sequentially obtained may be obtained in a time-series manner.
【0229】閾値処理して積をとる場合には、パターン
の欠損や低コントラスト条件下での特徴検出の許容度が
小さくなることは言うまでもない。When the product is obtained by performing the threshold processing, it goes without saying that the tolerance of feature detection under a pattern loss or low contrast condition is reduced.
【0230】また、上述した処理(時空間的RBFによ
る図形パターンの検出)は、連想記憶の想起過程に類似
する動作として実現することもできる。即ち、ある局所
領域(または全体領域)で検出されるべき低次(または
中次)の特徴要素の欠損が生じても、他の幾つかの特徴
要素が検出され、上記総和値(式(13))が閾値を上
回れば、時空間RBFネットワーク全体としては、中次
(または高次)の特徴要素の検出(該当するニューロン
の発火)が行われる様にすることができる。The above-described processing (detection of a graphic pattern by spatiotemporal RBF) can be realized as an operation similar to the recall process of associative memory. That is, even if a defect of a low-order (or medium-order) feature element to be detected in a certain local area (or entire area) occurs, some other feature elements are detected and the sum value (expression (13) If)) exceeds the threshold value, it is possible to detect a medium-order (or higher-order) feature element (fire the corresponding neuron) in the entire spatiotemporal RBF network.
【0231】ネットワークの構成としては、図1に示し
たものに限定される必要はなく、所定の幾何学的特徴要
素を検出する層を含む構成であればMLPその他のもの
であってもよいことはいうまでもない。The configuration of the network need not be limited to that shown in FIG. 1, but may be MLP or any other configuration as long as it includes a layer for detecting a predetermined geometric characteristic element. Needless to say.
【0232】本実施形態では、低次特徴抽出のためにGa
bor wavelet変換を用いたが、他の多重スケール特徴(例
えば、スケールに比例するサイズで求めた局所自己相関
係数など)を用いてもよいことは言うまでもない。In this embodiment, Ga is used for low-order feature extraction.
Although the bor wavelet transform is used, it goes without saying that other multi-scale features (for example, a local autocorrelation coefficient obtained with a size proportional to the scale) may be used.
【0233】なお、図1に示すようなネットワーク構成
のもとで、パルス幅(アナログ値)変調動作を行うシナプ
ス素子とintegrate-and-fireニューロンで構成されるネ
ットワークにより、図形パターン等の認識を行ってもよ
い。この場合、シナプスによる変調はシナプス前信号の
パルス幅とシナプス後のパルス幅をそれぞれ、Wb,Waと
するとWa = SijWbで与えられる。ここに、Sijは結合強
度(式(10))と同じ意味である。変調のダイナミック
レンジを大きくとる為には、パルス信号の基本パルス幅
を周期(基本パルス間隔)と比べて十分に小さくとる必
要がある。In the network configuration shown in FIG. 1, recognition of a figure pattern or the like is performed by a network composed of synapse elements for performing pulse width (analog value) modulation operation and integral-and-fire neurons. May go. In this case, modulation by synaptic each pulse width and the pulse width of the postsynaptic the presynaptic signal, W b, is given by W a = S ij W b when the W a. Here, S ij has the same meaning as the coupling strength (Equation (10)). In order to increase the dynamic range of the modulation, it is necessary to make the basic pulse width of the pulse signal sufficiently smaller than the period (basic pulse interval).
【0234】ニューロンの発火(パルス出力)は、所定
の特徴要素を表す複数のパルス電流の流入に伴う電荷の
蓄積により、電位が所定の閾値を越したときに生じる。
パルス幅変調等の場合においては、サブ時間窓ごとの到
着パルスの重み付き加算は特に要しないが、所定の幅の
時間窓での積分は実行される。この場合、検出されるべ
き特徴要素(図形パターン)は、特徴検出層ニューロン
に入力される信号の時間的総和(パルス電流値の総和)
のみに依存する。また、入力パルスの幅は重み関数の値
に相当するものである。The firing (pulse output) of the neuron occurs when the potential exceeds a predetermined threshold value due to accumulation of electric charges accompanying the inflow of a plurality of pulse currents representing predetermined characteristic elements.
In the case of pulse width modulation or the like, weighted addition of arriving pulses for each sub time window is not particularly required, but integration is performed in a time window having a predetermined width. In this case, the feature element (figure pattern) to be detected is a temporal sum of signals input to the feature detection layer neurons (sum of pulse current values).
Only depends on. The width of the input pulse corresponds to the value of the weight function.
【0235】なお、スケール不変な特徴表現を先に得る
構成により、複数の処理チャネルを中次、高次まで有す
る構成を用いずにスケール不変な認識性能を保持しなが
ら、選択的注視処理の効率が向上し、回路構成の簡素
化、規模の小型化、更には低消費電力化がもたらす構成
として、以下のようなものでもよい。In addition, the configuration in which the scale-invariant feature expression is obtained first makes it possible to maintain the scale-invariant recognition performance without using a configuration having a plurality of processing channels up to the middle and higher orders, and to improve the efficiency of the selective gaze processing. The following configuration may be adopted as a configuration that improves the circuit configuration, simplifies the circuit configuration, reduces the size, and further reduces the power consumption.
【0236】即ち、前述した基本構成では、注視領域の
設定制御層を低次特徴に関する集団的符号化の後で行
い、かつ集団的符号化を各層レベルで行ったが、集団的
符号化スケールレベルの異なる特徴表現及び前述したよ
うな集団的符号化を低次特徴に限って行い、後述するよ
うに各特徴に関するパルスの位相変調などによりスケー
ル不変な特徴表現を得て(スケール不変なパルス情報変
換)、その後前述した注視領域の設定制御を行い、中次
および高次の特徴検出はこのスケール不変な特徴表現ド
メインで行ってもよい。注視領域の設定制御を集団的符
号化の前に行ってもよいが、後に行う場合に比べて処理
効率が低下する。That is, in the basic configuration described above, the attention area setting control layer is performed after the collective encoding of the low-order features, and the collective encoding is performed at each layer level. And the collective coding as described above is performed only for the lower-order features, and as described later, a scale-invariant feature expression is obtained by phase modulation of the pulse for each feature (scale-invariant pulse information conversion). Then, the above-mentioned gaze area setting control is performed, and the medium-order and high-order feature detection may be performed in this scale-invariant feature expression domain. The gaze area setting control may be performed before the collective encoding, but the processing efficiency is reduced as compared with the case where the control is performed after the collective coding.
【0237】上述したスケール不変なパルス情報への変
換を行うには、同一特徴カテゴリであってスケールレベ
ル(サイズ)が異なる特徴は同じパルス間隔により表現さ
れるような変換として、例えば、ある図形特徴を検出す
る特徴検出ニューロンへの複数パルスの到着パターンの
位相オフセット量が、どの処理チャネルからのパルスで
あっても一定値となるような変換を行えばよい。パルス
幅変調により情報表現を行う場合にも、パルス幅の伸縮
又はオフセット量に関して同様の処理を行えばよい。In order to perform the above-described conversion into scale-invariant pulse information, features having the same feature category but different scale levels (sizes) may be represented by the same pulse interval. A conversion may be performed so that the phase offset amount of the arrival pattern of a plurality of pulses to the feature detection neuron for detecting the pulse becomes a constant value regardless of the pulse from any processing channel. Even when information is expressed by pulse width modulation, the same processing may be performed on the expansion or contraction or offset amount of the pulse width.
【0238】更に、互いに異なるスケールレベル(処理
チャネル)に属する特徴検出ニューロンにおいては、同
一カテゴリの図形的特徴(例えば、L字パターン)に対応
するパルスの到着時間の間隔(またはパルス到着の時間
パターン)が、スケールレベルにより異なり時分割され
るように学習規則を定めてもよい。Further, in the feature detecting neurons belonging to different scale levels (processing channels), the intervals between the arrival times of the pulses (or the time patterns of the pulse arrivals) corresponding to the graphic features of the same category (for example, L-shaped patterns) ) May be determined depending on the scale level and time-divided.
【0239】集団的符号化処理は、時分割されたパルス
信号全体にわたる重み付き加算による線形結合等により
行う。選択的注視処理は、集団的符号化の前に特定部分
領域に対応する特徴統合層(2,0)からの出力データを注
視領域として選択的に抽出し、集団的符号化処理は選択
された出力データについて時間軸上で行われる。特徴検
出層(1,1)以降の層においては、処理チャネルごとに異
なる回路を設けることなく、同一回路で多重スケール処
理を行うことができ、経済的な回路構成となる。即ち、
(1,1)層以降では処理チャネルの違いは回路構成上は物
理的に区別を無くすることができる。The collective encoding process is performed by linear combination or the like by weighted addition over the entire time-division pulse signal. Selective gaze processing selectively extracts output data from the feature integration layer (2, 0) corresponding to a specific partial region as a gaze region before collective coding, and collective coding processing is selected. The output data is performed on the time axis. In the layers after the feature detection layer (1, 1), the multi-scale processing can be performed by the same circuit without providing a different circuit for each processing channel, resulting in an economical circuit configuration. That is,
From the (1,1) layer onwards, the difference in processing channel can be physically distinguished from the viewpoint of circuit configuration.
【0240】特徴検出層(1,1)から特徴統合層(2,1)層へ
の出力(及び、それ以降の層につき同様とする)は、各
処理チャネル出力ごと(スケールレベルごと)に時分割
で行われる。The output from the feature detection layer (1, 1) to the feature integration layer (2, 1) (and the same applies to the subsequent layers) is output at each processing channel output (for each scale level). This is done in splits.
【0241】撮像装置に搭載した応用例 次に、本実施形態の構成に係るパターン検出(認識)装
置を撮像装置に搭載させることにより、特定被写体への
フォーカシングや特定被写体の色補正、露出制御を行う
場合について、図11を参照して説明する。図11は、
実施形態に係るパターン検出(認識)装置を撮像装置に
用いた例の構成を示す図である。 Application Example Installed in Image Pickup Apparatus Next, by mounting the pattern detection (recognition) apparatus according to the configuration of the present embodiment in the image pickup apparatus, focusing on a specific subject, color correction of the specific subject, and exposure control can be performed. The case of performing the operation will be described with reference to FIG. FIG.
1 is a diagram illustrating a configuration of an example in which a pattern detection (recognition) device according to an embodiment is used in an imaging device.
【0242】図11の撮像装置1101は、撮影レンズおよ
びズーム撮影用駆動制御機構を含む結像光学系1102、CC
D又はCMOSイメージセンサー1103、撮像パラメータ
の計測部1104、映像信号処理回路1105、記憶部1106、撮
像動作の制御、撮像条件の制御などの制御用信号を発生
する制御信号発生部1107、EVFなどファインダーを兼ね
た表示ディスプレイ1108、ストロボ発光部1109、記録媒
体1110などを具備し、更に上述したパターン検出装置
を、選択的注視機構を有する被写体検出(認識)装置11
11として備える。An image pickup apparatus 1101 shown in FIG. 11 includes an image forming optical system 1102 including a photographing lens and a drive control mechanism for zoom photographing, and CC
D or CMOS image sensor 1103, imaging parameter measurement unit 1104, video signal processing circuit 1105, storage unit 1106, control signal generation unit 1107 that generates control signals such as control of imaging operation, control of imaging conditions, and viewfinders such as EVF A display 1108, a strobe light emitting unit 1109, a recording medium 1110, and the like.
Prepare as 11.
【0243】この撮像装置1101は、例えば撮影前のファ
インダー映像中から、予め登録された人物の顔画像の検
出(存在位置、サイズの検出)又は認識を被写体検出(認
識)装置1111により行う。そして、その人物の位置、サ
イズ情報が被写体検出(認識)装置1111から制御信号発生
部1107に入力されると、同制御信号発生部1107は、撮像
パラメータ計測部1104からの出力に基づき、その人物に
対するピント制御(AF)、露出条件制御(AE)、ホ
ワイトバランス制御(AW)などを最適に行う制御信号
を発生する。The image pickup apparatus 1101 performs detection (recognition of the position and size) or recognition of a face image of a person registered in advance, for example, from a finder image before photographing by a subject detection (recognition) apparatus 1111. Then, when the position and size information of the person is input from the subject detection (recognition) device 1111 to the control signal generation unit 1107, the control signal generation unit 1107 outputs the person based on the output from the imaging parameter measurement unit 1104. A control signal for optimally performing focus control (AF), exposure condition control (AE), white balance control (AW), and the like is generated.
【0244】図28に、撮像装置において選択的注視を
行いながら、撮影を行う場合の処理フローの概要を示
す。FIG. 28 shows an outline of a processing flow in the case of performing imaging while performing selective gaze in the imaging apparatus.
【0245】先ず、ステップS2801で、検出・認識の対
象を予め特定するために、撮影対象(例えば、人物の撮
影を行う場合には対象人物の顔など)についてのモデル
データを記憶部1106又は撮像装置に内臓される通信部
(不図示)を介して一時記憶部(不図示)にローディン
グする。次に、ステップS2802で、撮影待機状態(シャ
ッター半押し状態など)において注視制御処理の初期化
(例えば、注視領域を画面中央位置、画面全体サイズに
するなど)を行う。First, in step S2801, in order to specify an object to be detected / recognized in advance, model data of an object to be photographed (for example, a face of the object person when photographing a person) is stored in the storage unit 1106 or The data is loaded into a temporary storage unit (not shown) via a communication unit (not shown) built in the apparatus. Next, in step S2802, the gaze control process is initialized (for example, the gaze area is set to the center position of the screen, the entire screen size, etc.) in the shooting standby state (shutter half-pressed state, etc.).
【0246】続けて、ステップS2803で、前述したよう
な注視領域更新処理を起動して、所定の基準(例えば、
最上位層出力に基づき撮影対象の「検出」を判定した場
合)に合致する注視領域を設定し、ステップS2804で注視
領域更新処理を一旦停止し、ステップS2805で、選択さ
れた注視領域を中心とする撮影条件の最適化制御(A
F、AE,AW及びズーミングなど)を行う。このと
き、更に、ユーザが撮影対象の確認を行えるように、ス
テップS2806で、撮影対象位置を十字マーク等のマーカ
ー表示をファインダーディスプレイ上で行う。Subsequently, in step S2803, the gaze area updating process as described above is started, and a predetermined reference (for example,
Set a gaze area that matches the `` detection '' of the shooting target based on the top layer output), temporarily stop the gaze area update process in step S2804, and center the selected gaze area in step S2805. Control (A
F, AE, AW and zooming). At this time, in step S2806, a marker such as a cross mark is displayed on the finder display so that the user can confirm the photographing target.
【0247】次に誤検出判定処理(ステップS2807)と
して、例えば、一定時間範囲内でシャッタボタンが押さ
れたか否か、或いはユーザが他の対象の探索指示を出し
たか否か(例えば、シャッタ半押し状態解除の状態にし
た場合など)を判定する処理を行う。そこで誤検出と判
定された場合には、ステップS2803に戻って、再び注視
領域更新処理を起動する。また、誤検出なしと判定され
た場合には、その時の撮影条件で撮影がなされる。Next, as an erroneous detection determination process (step S2807), for example, it is determined whether or not the shutter button has been pressed within a certain time range, or whether or not the user has issued an instruction to search for another object (for example, shutter halfway). (E.g., when the pressed state is released). Therefore, if it is determined that an erroneous detection has occurred, the process returns to step S2803, and starts the attention area update process again. If it is determined that there is no erroneous detection, shooting is performed under the shooting conditions at that time.
【0248】上述した実施形態に係るパターン検出(認
識)装置を、このように撮像装置に用いた結果、複数の
被写体が入力画像中に存在する場合、予め被写体の存在
位置や画面内サイズが分からない場合でも、当該被写体
を確実かつ効率的に検出(認識)することができ、そのよ
うな機能を低消費電力かつ高速(リアルタイム)に実現
して、人物等の検出とそれに基づく撮影の最適制御(A
F、AEなど)を行うことができる。As a result of using the pattern detection (recognition) apparatus according to the above-described embodiment in an image pickup apparatus, when a plurality of subjects are present in an input image, the position of the subject and the size in the screen are determined in advance. Even if there is no such object, the subject can be detected (recognized) reliably and efficiently, such a function can be realized with low power consumption and high speed (real time), and detection of a person and the like and optimal control of photographing based on the detection. (A
F, AE, etc.).
【0249】<第2の実施形態>本実施形態では、予め
選択的注視を行う場所(画面内位置)等に関する優先順位
(優先度)を求めることにより、選択的注視の更新処理そ
のものを高速に行う。本実施形態に特有の効果として、
後で定義する優先度の設定部2401により、予め(検出動
作などを開始する前に)優先順位を設定しておくことに
より、処理効率(注視点更新のスピード)が大きく向上
する。また、更新可能な位置を制限するために優先度の
許容範囲を設け、その範囲にある優先度の注視制御ニュ
ーロンのみに注視位置の更新を行うことにより処理の更
なる高速化がもたらされる。<Second Embodiment> In the present embodiment, the priorities relating to places (positions in the screen) where selective gaze is to be performed in advance, etc.
By calculating (priority), the selective gaze updating process itself is performed at high speed. As an effect unique to the present embodiment,
By setting priorities in advance (before starting a detection operation or the like) by the priority setting unit 2401 defined later, processing efficiency (speed of gazing point update) is greatly improved. Further, by setting an allowable range of the priority in order to limit the updateable position, and updating the gaze position only to the gaze control neuron of the priority within the range, the processing speed is further increased.
【0250】本実施形態の注視領域設定制御層108を中
心とした要部構成を図24に示す。低次特徴の顕著度マ
ップ(特徴統合層(2,0)出力)と上位層からのフィードバ
ック量に基づき、注視制御ニューロンを選択する優先順
位の設定を行う優先度設定部2401を設けてある。これは
注視位置更新制御回路1901とともに注視領域設定制御層
108に近接して設定する(注視領域設定制御層108上に設
定してもよい)のが良い。なお、優先度設定部2401と注
視位置更新制御回路1901とは、本実施形態ではデジタル
信号処理回路(または論理ゲートアレイ)である。前実
施形態と同様に注視領域設定制御層108には、入力デー
タ上で低次特徴検出を行う各位置に対応する注視制御ニ
ューロン(処理チャネルの数 x 特徴カテゴリの数だけ
図8の楕円で示された同一位置に存在する)が存在す
る。FIG. 24 shows a configuration of a main part of this embodiment centered on the attention area setting control layer 108. A priority setting unit 2401 is provided for setting a priority order for selecting a gaze control neuron based on a saliency map of lower-order features (output of the feature integration layer (2, 0)) and a feedback amount from an upper layer. This is the gaze area setting control layer together with the gaze position update control circuit 1901
It is preferable to set it close to 108 (may be set on the gaze area setting control layer 108). Note that the priority setting unit 2401 and the gaze position update control circuit 1901 are digital signal processing circuits (or logic gate arrays) in the present embodiment. As in the previous embodiment, the gaze area setting control layer 108 includes gaze control neurons (the number of processing channels x the number of feature categories represented by ellipses in FIG. 8) corresponding to each position where low-order feature detection is performed on input data. Existing at the same position).
【0251】ここで優先度を示す量は、式(5)に示す
ような特徴統合層出力(顕著度の値)と上位層からのフ
ィードバック量の線形和(又はその順位)に相当する。
この優先度の高い順に対応する注視制御ニューロンを活
性化する制御信号が注視位置更新制御回路1901から特定
の(更新位置の)注視制御ニューロンに対して送出され
る。注視位置更新制御回路1901は、優先度の高い注視制
御ニューロンの位置(アドレス)を求めるために、後述す
る所定の方法で各注視制御ニューロンを逐次アクセスし
て優先度を算出し、かつソーティングを行って一次記憶
部(不図示)に優先度の高い順にニューロンのアドレス情
報を格納する。但し、予め設定してある優先度の許容範
囲にある優先度の注視制御ニューロンのアドレスのみを
格納する。Here, the quantity indicating the priority corresponds to the linear sum (or the rank) of the output of the feature integration layer (value of saliency) and the feedback amount from the upper layer as shown in equation (5).
A control signal for activating the gaze control neurons corresponding to the descending order of priority is sent from the gaze position update control circuit 1901 to a specific (updated position) gaze control neuron. The gaze position update control circuit 1901 sequentially accesses each gaze control neuron by a predetermined method to calculate a priority and performs sorting in order to obtain a position (address) of a gaze control neuron with a high priority. Then, the address information of the neuron is stored in the primary storage unit (not shown) in order of the priority. However, only the address of the gaze control neuron having the priority within the preset priority allowable range is stored.
【0252】優先度算出のための注視制御ニューロンへ
のアクセス方法としては、例えば、初期注視位置(前実
施形態と同様に画面中央とする)から螺旋状にサンプリ
ングして行う。また、撮影条件(被写体距離、倍率な
ど)に基づいて探索すべき処理チャネルを決定し(被写
体サイズが予め分かっているとすると撮影条件に応じた
画面内の対象のサイズも分かり、その結果スケールレベ
ルも絞られることによる)、対応する注視制御ニューロ
ン群のみを探索してもよい。As a method of accessing the gaze control neuron for calculating the priority, for example, a spiral sampling is performed from an initial gaze position (the center of the screen as in the previous embodiment). In addition, the processing channel to be searched is determined based on the photographing conditions (subject distance, magnification, etc.). If the subject size is known in advance, the size of the target in the screen according to the photographing conditions is also known. However, only the corresponding gaze control neuron group may be searched.
【0253】また注視位置更新制御回路1901は、登録さ
れた注視制御ニューロンアドレスの全てを順次選択する
のではなく、予め設定された優先度範囲にある注視制御
ニューロンを選択する。例えば、視覚探索(選択的注視
制御)を行う初めの段階では、優先度の許容範囲を高め
に設定しておき、その範囲で一巡するたびに(これを注
視位置探索更新の回数にカウントし、その回数に応じ
て)優先度の許容範囲を変化させてもよい。例えば、そ
の回数が増すたびに優先度の許容範囲を低くするか、或
いは許容範囲を拡大すればよい。The gaze position update control circuit 1901 does not sequentially select all the registered gaze control neuron addresses, but selects gaze control neurons within a preset priority range. For example, in the initial stage of performing the visual search (selective gaze control), the allowable range of the priority is set high, and every time the circuit makes a round in the range (this is counted as the number of gaze position search updates, The allowable range of the priority may be changed (according to the number of times). For example, the priority allowable range may be reduced or the allowable range may be expanded each time the number of times increases.
【0254】<第3の実施形態>本実施形態の注視領域
設定制御層108を中心とした構成を、図20、21に示
す。本実施形態では注視制御ニューロン1801は、認識対
象カテゴリに属する対象の位置と存在確率に関する情報
を出力する上位層(例えば、特徴位置検出層(3,2)または
特徴統合層(2,2))からのフィードバック結合と、当該認
識カテゴリの対象が有する中次特徴の位置と存在確率
(集団的符号化処理の説明を参照)または検出レベルに関
する情報を出力する中間層(例えば、特徴位置検出層(3,
1)または特徴統合層(2,1))からのフィードバック結合を
受け、外部(例えば、図1で示される最上位層より更に
上位の層)からの制御信号などにより、当該対象の探索
時(検出モード)には上位層からのフィードバック入力
を、当該対象の認識時(認識モード)には中間層からのフ
ィードバック入力を優先する。<Third Embodiment> FIGS. 20 and 21 show the structure of the present embodiment centered on the attention area setting control layer 108. FIG. In the present embodiment, the gaze control neuron 1801 is an upper layer (for example, the feature position detection layer (3, 2) or the feature integration layer (2, 2)) that outputs information on the position and existence probability of a target belonging to the recognition target category. And the position and existence probability of the secondary features of the target of the recognition category
(See the description of the collective encoding process) or an intermediate layer that outputs information on the detection level (for example, the feature position detection layer (3,
1) or the feedback integration from the feature integration layer (2, 1)), and when searching for the target by a control signal from the outside (for example, a layer higher than the top layer shown in FIG. 1) ( In the detection mode), the feedback input from the upper layer is prioritized, and when the target is recognized (recognition mode), the feedback input from the intermediate layer is prioritized.
【0255】ここで、検出モードでの対象の探索とは、
単に認識対象と同一カテゴリの対象の検出(例えば、顔
の検出)を行うことを意味し、認識とは、注視位置の設
定制御をより詳細な特徴に基づいて行うことにより、当
該対象が認識対象であるか否か(例えば、特定人物の顔
か否か)の判定を行うことを意味する。後者の認識時は
前者の探索時よりも、いわゆる注視度が高い状態であ
る。Here, the search for an object in the detection mode is as follows.
Recognition simply means detecting a target in the same category as the recognition target (e.g., detecting a face) .Recognition means that the gaze position is controlled based on more detailed characteristics, and the target is Is determined (for example, whether or not the face is a specific person's face). At the time of the recognition of the latter, the so-called gaze degree is higher than at the time of the search of the former.
【0256】フィードバック結合の重み付けによる優先
の仕方は、図26に示すフィードバック量変調部2601に
より設定される。このフィードバック量変調部2601を介
した処理の流れを図25に示す。フィードバック量変調
部2601は、先ず各注視制御ニューロンに対する上位層か
らのフィードバック量と中間層からのフィードバック量
をそれぞれ入力する(2501)。The priority method based on the weighting of the feedback combination is set by feedback amount modulation section 2601 shown in FIG. FIG. 25 shows the flow of processing via the feedback amount modulation section 2601. The feedback amount modulation section 2601 first inputs the feedback amount from the upper layer and the feedback amount from the intermediate layer to each gaze control neuron (2501).
【0257】検出モードか認識モードかのモード制御信
号の入力を行い(2502)、検出モードの場合には、上位
層からのフィードバック量のみ、または両フィードバッ
ク量を適切な重み付けした線形和(αF1 + βF2:F1は上
位層から、F2は中間層からのフィードバック量)をと
り、上位層からのフィードバック量に関する寄与が大と
なるような(α > β ≧ 0)結合フィードバック量の算
出を行い、当該フィードバック量が出力となるような変
調(増幅)を行う(2503)。一方、認識モードの場合に
は、中間層からのフィードバック量のみ、または両フィ
ードバック量の線形和による中間層からのフィードバッ
ク量寄与が大となるような(0 ≦ α <β)結合フィー
ドバック量を算出し、同様な変調を与える(2504)。A mode control signal of the detection mode or the recognition mode is input (2502). In the case of the detection mode, only the feedback amount from the upper layer or a linear sum (αF 1) obtained by appropriately weighting both feedback amounts is used. + βF 2: F 1 is calculated from the higher layer, F 2 is the feedback amount) take, as the contribution regarding the amount of feedback from the upper layer is large (α> β ≧ 0) coupling feedback amount from an intermediate layer And performs modulation (amplification) such that the feedback amount becomes an output (2503). On the other hand, in the case of the recognition mode, only the feedback amount from the hidden layer or the combined feedback amount (0 ≦ α <β) is calculated such that the feedback amount contribution from the hidden layer by the linear sum of both feedback amounts is large. And give a similar modulation (2504).
【0258】本実施形態では、どのフィードバック結合
を優先するかは別として、注視位置の設定制御を実施形
態1と同様に行うことができるが、実施形態1に係る方
法に加えて、注視点位置に関するランダムな時間的変動
を与えながら行ってもよい。このように注視位置にゆら
ぎを与えることにより、探索対象の検出をより効率良く
行うことができる場合がある。即ち、実施形態1では、
注視位置更新の際、常に近傍領域内での次候補探索処理
を要していた(最新の注視位置の近傍領域において次候
補となる注視制御ニューロンが存在しないとき、当該近
傍領域の外部または外部の隣接位置に次の注視位置を設
定した)が、注視位置のゆらぎ付与により、次のような
特有の効果を得ることができる。In the present embodiment, the gaze position setting control can be performed in the same manner as in the first embodiment, aside from which feedback combination is prioritized. However, in addition to the method according to the first embodiment, the gaze point position is controlled. This may be performed while giving a random temporal variation regarding By giving a fluctuation to the gaze position in this way, there is a case where the search target can be detected more efficiently. That is, in the first embodiment,
When the gaze position is updated, the next candidate search process in the vicinity area is always required (when there is no gaze control neuron as the next candidate in the vicinity area of the latest gaze position, outside or outside of the vicinity area). Although the next gaze position is set at the adjacent position), the following specific effects can be obtained by giving the fluctuation of the gaze position.
【0259】(1)探索すべき近傍領域サイズを(ゆら
ぎの付与無しの場合より)小さくしても、探索に要する
時間を同等に保ちながら、近傍領域内での探索に要する
処理負荷を軽減することができる。何故ならば、注視位
置のランダムなゆらぎは、近傍領域内での注視制御ニュ
ーロンへのフィードバック量等の比較処理を行わずに、
注意位置の探索を行うことと等価な作用を与えるからで
ある。(1) Even if the size of a nearby area to be searched is made smaller (than when no fluctuation is applied), the processing load required for searching in a nearby area is reduced while keeping the time required for searching equal. be able to. This is because the random fluctuation of the gaze position can be performed without performing a comparison process such as a feedback amount to the gaze control neuron in the vicinity area.
This is because an effect equivalent to performing the search for the attention position is provided.
【0260】(2)ゆらぎの幅が小さい場合には、所定
の注視点を中心とする特徴検出層出力の時間的平均化に
よる認識(検出)率を向上させることができる。(2) When the width of the fluctuation is small, the recognition (detection) rate can be improved by temporally averaging the output of the feature detection layer centered on a predetermined point of interest.
【0261】注視位置のゆらぎを与える場合には、その
変動幅は注視度に応じて変化させることができる。ここ
で、注視度とは、認識・検出対象の全体のパターンを構
成する特定パターンの検出、またはそのような構成要素
となる特定パターン間の配置の検出を行なう層からのフ
ィードバック量を重視する度合いであり、例えば当該フ
ィードバック量の注視制御ニューロンでの検出レベル
を、全体パターン(高次特徴)の検出を行う層(上位層)
からのフィードバック入力の検出レベルを基準として求
めた値、即ち上位層からのフィードバック量F1に対する
中間層からのフィードバック量F2の比(F2/F1)で表され
る。When the fluctuation of the gaze position is given, the fluctuation range can be changed according to the degree of gaze. Here, the degree of fixation is a degree of emphasizing the amount of feedback from a layer that detects a specific pattern constituting the entire pattern of the recognition / detection target or detects an arrangement between the specific patterns serving as such components. For example, the detection level of the feedback amount in the gaze control neuron is determined by the layer (upper layer) for detecting the entire pattern (higher-order features).
Detection level value determined based on the feedback input from, i.e. is expressed by the ratio of the feedback amount F 2 from the intermediate layer (F 2 / F 1) for the feedback amount F1 from the upper layer.
【0262】注視度が高いときには変動幅を小さくする
要領で、注視位置の変動幅を制御する。注視度は上位層
からのフィードバック量の総和の単調増加関数とする
か、或いは複数の注視制御ニューロン間でフィードバッ
ク量の差が小さいほど注視度(当該ニューロンへのフィ
ードバック量)を大きくするフィードバック量の増幅を
行うことによって定めてもよい。後者のフィードバック
量の増幅は、注視領域設定制御層108において、図26
に示すフィードバック量変調部2601により該当する各注
視制御ニューロン1801に対して行われる。When the degree of gaze is high, the fluctuation range of the gaze position is controlled in the manner of reducing the fluctuation range. The gaze level is a monotonically increasing function of the sum of feedback amounts from the upper layer, or a feedback amount that increases the gaze degree (feedback amount to the neuron) as the difference in feedback amount among a plurality of gaze control neurons is smaller. It may be determined by performing amplification. The latter amplification of the feedback amount is performed by the watch area setting control layer 108 as shown in FIG.
This is performed for each corresponding gaze control neuron 1801 by the feedback amount modulation section 2601 shown in FIG.
【0263】注視点位置に時間的変動を与える方法とし
ては、例えば最新の注視点位置を中心とする実施形態1
と同様な近傍領域において、前述した変調後のフィード
バック量に基づいて、実施形態1と同様に更新後の注視
点を設定し、更にその位置のランダムな変動を与えるこ
とにより、最終的な更新後の注視制御ニューロン(注視
位置)を設定する。このときランダムな変動の幅を注視
度に応じて前述したように制御すればよい。As a method for giving a temporal change to the gazing point position, for example, the first embodiment centering on the latest gazing point position
In the vicinity area similar to the above, based on the feedback amount after the above-described modulation, the updated gazing point is set in the same manner as in the first embodiment. The gaze control neuron (gaze position) is set. At this time, the width of the random fluctuation may be controlled as described above according to the degree of gaze.
【0264】<第4の実施形態>本実施形態では、図2
9に示すように、画像入力装置(カメラ、ビデオカメラ
等)内部において、ユーザ(撮影者)が意図する画像入
力(撮影)対象の位置・サイズ等の情報を検出するアシ
スト情報検出部2902(以下、本実施形態では視線を例に
説明する)、および前述した実施形態に係る注視領域設
定制御部2901を内蔵した被写体検出(認識)装置1111を
設ける。<Fourth Embodiment> In the present embodiment, FIG.
As shown in FIG. 9, an assist information detection unit 2902 (hereinafter, referred to as an image input device (camera, video camera, etc.)) detects information such as the position and size of an image input (photographing) target intended by a user (photographer) inside the image input device (camera, video camera, etc.). In the present embodiment, the line of sight will be described as an example), and a subject detection (recognition) device 1111 including the gaze area setting control unit 2901 according to the above-described embodiment is provided.
【0265】アシスト情報(視線)検出部2902と注視領
域設定制御部2901とが連動して注視位置の設定制御を行
うことにより、画面中の特定対象に適し、かつユーザの
意図を反映することのできる高速自動撮影を行う。な
お、アシスト情報としては、視線の他にユーザにより明
示的に設定してもよい。以下、アシスト情報検出部2902
を視線検出部2902として記述する。The assist information (line of sight) detection unit 2902 and the attention area setting control unit 2901 perform the gaze position setting control in conjunction with each other, so that it is suitable for a specific target on the screen and reflects the intention of the user. Perform high-speed automatic shooting that can. The assist information may be explicitly set by the user in addition to the line of sight. Hereinafter, the assist information detecting unit 2902
Is described as a gaze detection unit 2902.
【0266】図29において、撮像装置1101は、撮影レ
ンズおよびズーム撮影用駆動制御機構を含む結像光学系
1102、CCD又はCMOSイメージセンサー1103、撮像パ
ラメータの計測部1104、映像信号処理回路1105、記憶部
1106、撮像動作の制御、撮像条件の制御などの制御用信
号を発生する制御信号発生部1107、EVFなどファインダ
ーを兼ねた表示ディスプレイ1108、ストロボ発光部110
9、記録媒体1110などを具備する。In FIG. 29, an imaging device 1101 is an imaging optical system including a photographing lens and a drive control mechanism for zoom photographing.
1102, CCD or CMOS image sensor 1103, measurement unit 1104 of imaging parameter, video signal processing circuit 1105, storage unit
1106, a control signal generating unit 1107 for generating control signals for controlling an imaging operation, controlling an imaging condition, etc., a display 1108 also serving as a finder such as an EVF, a strobe light emitting unit 110
9, a recording medium 1110 and the like.
【0267】更に、上述した視線検出部2901、視線検出
用の接眼部光学系2903、注視領域設定制御部2901を内蔵
した被写体検出(認識)手段1111を備える。接眼部光学
系2903には、接眼レンズ、ハーフミラーの様な光分割
器、集光レンズ、赤外光を発するLEDなどの照明光源
などから構成され、視線検出部2901は、ミラー、ピント
板、ペンタ・ダハプリズム、光電変換器、信号処理手段
などから構成され、視線位置検知信号は、撮像パラメー
タの計測部1104する出力する。Further, there is provided a subject detection (recognition) means 1111 including the above-described gaze detection unit 2901, an eyepiece optical system 2903 for gaze detection, and a gaze area setting control unit 2901. The eyepiece optical system 2903 includes an eyepiece, a light splitter such as a half mirror, a condenser lens, an illumination light source such as an LED that emits infrared light, and the like. , A penta- roof prism, a photoelectric converter, a signal processing unit, and the like, and outputs a line-of-sight position detection signal to the imaging parameter measuring unit 1104.
【0268】なお、視線検出部2901の構成としては、本
出願人による特許第2505854号公報、特許第27
63296号公報、特許第2941847号公報などに
開示された機構その他を用いることができ、説明を省略
する。The configuration of the line-of-sight detection unit 2901 is disclosed in Japanese Patent Publication No.
No. 63296, Japanese Patent No. 2941847, and the like can be used, and the description is omitted.
【0269】注視制御の具体的手順としては、まず、予
めユーザが注目する場所(領域)を視線検出部2902によ
り抽出し、その情報を一次記憶部に格納しておく。次
に、注視領域設定制御部2901が起動して、予め記憶され
た注視候補位置(複数可)を優先的に探索する。ここ
で、優先的に探索するとは、実施形態2で説明したよう
な優先順位を用いて注視位置を設定したのと同様に、例
えば、ユーザが注視した位置の順番に注視位置を設定
し、その都度、実施形態1などに示したような近傍領域
の探索を一定時間範囲で行い、その後ユーザ注視位置へ
の更新、近傍領域探索を交互に繰り返することを意味す
る。その理由は後に記す。As a specific procedure of gaze control, first, a place (area) to which the user pays attention is extracted in advance by the gaze detection unit 2902, and the information is stored in the primary storage unit. Next, the gaze area setting control unit 2901 is activated, and preferentially searches for a pre-stored gaze candidate position (plurality). Here, to preferentially search, as in the case where the gaze position is set using the priority order described in the second embodiment, for example, the gaze position is set in the order of the position where the user gazes. Each time, this means that a search for a nearby area as described in the first embodiment or the like is performed within a fixed time range, and thereafter, updating to a user's gaze position and searching for a nearby area are alternately repeated. The reason will be described later.
【0270】一方、注視領域設定制御部2901の動作中に
視線検出部2902からの信号を一定時間間隔で入力し、そ
の時得られるユーザの注視する位置周辺を優先的に探索
してもよい。具体的には、視線検出部2902からの信号に
より特定される画面内の注視位置に最も近い位置にある
注視制御ニューロンを選択し、当該制御ニューロンを活
性化する(或いは、図21のゲーティング層2101の一定
範囲のゲートに対してゲートのオープン信号を送る)こ
とにより、ユーザの注視位置を反映した認識(検出)処
理を行う。On the other hand, a signal from the line-of-sight detection unit 2902 may be input at regular time intervals during the operation of the gaze area setting control unit 2901 to preferentially search around the position of the user's gaze obtained at that time. Specifically, a gaze control neuron closest to the gaze position in the screen specified by the signal from the gaze detection unit 2902 is selected, and the control neuron is activated (or the gating layer in FIG. 21). By sending a gate open signal to a certain range of gates in 2101), recognition (detection) processing reflecting the gaze position of the user is performed.
【0271】以上のように、ユーザの注視する(した)
位置に関する情報と注視位置設定制御処理により自動的
に更新される注視位置情報とを組み合わせて注視領域の
設定制御を行う主な理由は以下のとおりである。As described above, the user gazes (does)
The main reason for performing the gaze area setting control by combining the information regarding the position and the gaze position information automatically updated by the gaze position setting control process is as follows.
【0272】1.ユーザの注視している位置が常に撮影
対象を正確に表す(の検出に役立つ)とは限らない。[0272] 1. The position that the user gazes at does not always accurately represent (useful for detecting) the imaging target.
【0273】2.実施形態1、2、及び3に示すような
注視位置設定制御の処理単独よりもユーザの意図する撮
影対象の位置情報を補助的に用いることにより探索範囲
を狭めることができ、より効率的な探索を行うことがで
きる。[0273] 2. The search range can be narrowed by using the position information of the imaging target intended by the user in an auxiliary manner as compared with the processing of the gaze position setting control alone as shown in the first, second, and third embodiments, and a more efficient search can be performed. It can be performed.
【0274】3.注視領域設定制御部により設定された
注視位置の誤り検出が容易となる。[0274] 3. Error detection of the gaze position set by the gaze area setting control unit is facilitated.
【0275】以上のように、ユーザの注視位置検出結果
を援用することにより、確実かつ高速に被写体の検出と
認識を行うことができた。As described above, by using the result of detecting the gaze position of the user, the subject can be detected and recognized reliably and at high speed.
【0276】以上説明した実施形態によれば、低次特徴
(例えば、当該対象の検出には意味のないエッジなど)
による擾乱を受けずに、注視すべき領域の設定制御を小
規模の回路で高効率に行うことができる。特に、多重解
像処理と集団的符号化処理メカニズムを、上位層からの
フィードバック量が関与する注視制御に組み込んだこと
により、複数の同一カテゴリに属する対象が、異なるサ
イズで任意の位置に存在している場合でも、高次特徴の
検出レベルを用いてフィードバック制御する機構を設け
たことにより、複数の対象間を効率良く探索することが
できる。According to the embodiment described above, low-order features (for example, edges that have no meaning in detecting the target).
The setting control of the area to be watched can be performed with high efficiency by a small-scale circuit without being affected by the disturbance. In particular, by incorporating the multiple resolution processing and collective coding mechanisms into the gaze control involving the feedback amount from the upper layer, objects belonging to the same category can be located at arbitrary positions with different sizes. Even in such a case, by providing a mechanism for performing feedback control using the detection level of the higher-order feature, it is possible to efficiently search among a plurality of targets.
【0277】また、特徴検出信号であるパルス信号につ
いて時間窓内での重み付き荷重和の閾値処理することに
より、複雑多様な背景下において、検出(認識)すべき
対称が複数存在しそれらの配置関係が事前にわからなく
ても、かつその変形(位置変動、回転等を含む)、特に
サイズの変化や照明、ノイズの影響等による特徴検出の
欠損等が生じても、確実に所望のパターンを効率よく検
出することができる。この効果は、特定のネットワーク
構造によらず実現することができるものである。Further, by performing a threshold processing of a weighted weighted sum within a time window on a pulse signal which is a feature detection signal, there are a plurality of symmetries to be detected (recognized) in a complicated and diverse background, and their arrangement is performed. Even if the relationship is not known in advance, and even if its deformation (including position fluctuation, rotation, etc.), especially loss of feature detection due to size change, illumination, noise, etc., occurs, a desired pattern can be reliably formed. It can be detected efficiently. This effect can be realized regardless of the specific network structure.
【0278】更に、注視領域の設定更新をユーザからの
アシスト情報(視線方向など)と注視領域設定制御処理
とを用いて行うことにより、高速かつ確実に行う事がで
きた。Furthermore, by updating the setting of the gaze area by using the assist information (gaze direction and the like) from the user and the gaze area setting control processing, the gaze area can be updated quickly and reliably.
【0279】また、高次特徴の検出レベルに応じた注視
領域の探索を高効率に行い、所定のカテゴリの対象の検
出及び認識を高速かつコンパクトな構成で行うことがで
きる。In addition, it is possible to efficiently search for a gaze area in accordance with the detection level of higher-order features, and to detect and recognize a target of a predetermined category with a high-speed and compact configuration.
【0280】また、注視領域の設定を低次特徴または入
力データについてのみ行うことにより、従来技術(選択
的チューニング法、及び特公平6-34236号公報)で行わ
れていたような低次から高次までの設定制御を不要と
し、処理効率の向上と高速化がもたらされる。Further, by setting the gaze area only for the low-order features or input data, the low-order features and the high-order features as in the prior art (selective tuning method and Japanese Patent Publication No. 6-34236) are performed. This eliminates the need for setting control up to the next, thereby improving processing efficiency and speeding up.
【0281】また、低次等の特徴顕著度とフィードバッ
ク信号の双方を混合的に用いることにより、詳細なパタ
ーンの分析を行う様な認識モードでは、認識対象を構成
する要素となるパターンや局所的な特徴配置に関する情
報を優先的に活用し、単にある特徴カテゴリに属するパ
ターンを検出する様な検出モードでは全体的な特徴(高
次特徴、或いは上位層からのフィードバック信号)を優
先的に扱うなど適応的な処理ができる。Further, in a recognition mode in which a detailed pattern is analyzed by using both the characteristic saliency of a low order or the like and the feedback signal in a mixed manner, a pattern as an element constituting a recognition target or a local pattern is analyzed. In a detection mode that preferentially utilizes information related to various feature arrangements and simply detects a pattern belonging to a certain feature category, the overall features (higher-order features or feedback signals from upper layers) are preferentially handled. Adaptive processing can be performed.
【0282】また、注視位置に関する優先度が予め求め
られ、その結果に基づいて注視位置が制御されるので注
視領域の探索制御を極めて高速に行うことができる。Further, since the gaze position is determined in advance and the gaze position is controlled based on the result, the search control of the gaze area can be performed at a very high speed.
【0283】また、注視位置探索回数に応じて注視位置
に関する優先度の許容範囲を変化させることにより、認
識対象の探索過程が巡回してしまう(ほぼ同じ探索位置
を繰り返し探索する)ような場合には許容優先度を変化
させて、実質的な探索範囲を変更することができる。Further, by changing the allowable range of the priority regarding the gaze position in accordance with the number of gaze position searches, the search process of the recognition target circulates (almost the same search position is repeatedly searched). Can change the substantial priority by changing the allowable priority.
【0284】また、優先度の分布から優先度の高い順に
注視位置を設定し、優先度に基づいて選択された特徴の
属する処理チャネルに基づき注視領域のサイズを制御す
ることにより、認識検出対象のサイズが予め分からない
場合でもその対象のサイズに応じた注視領域の設定を自
動的に行うことが可能になる。[0284] Further, the gaze positions are set in descending order of priority from the priority distribution, and the size of the gaze area is controlled based on the processing channel to which the feature selected based on the priority belongs. Even when the size is not known in advance, it is possible to automatically set the gaze area according to the size of the target.
【0285】また、注視領域を低次特徴検出層に属する
特徴検出素子のアクティブな受容野として設定制御する
ことにより、注視領域設定のための特別なゲーティング
素子を設定しなくても注視領域の設定が可能になる。Also, by setting and controlling the gaze area as an active receptive field of the feature detection elements belonging to the lower-order feature detection layer, the gaze area can be set without setting a special gating element for setting the gaze area. Settings can be made.
【0286】また、複数の解像度又はスケールレベルご
とに複数の特徴を抽出することにより、任意サイズの対
象を高効率に探索することができる。By extracting a plurality of features for each of a plurality of resolutions or scale levels, it is possible to efficiently search for an object of an arbitrary size.
【0287】また、対象の探索時には上位層からのフィ
ードバック入力を、当該対象の認識時には中間層からの
フィードバック入力を優先することにより、所定のカテ
ゴリに属する対象の検出のみを行うときは、高次の特徴
(パターンの全体的な特徴)に基づいて探索を行い、類
似物体間の識別や認識を行う場合には中次の特徴(全体
の一部をなすパターンや特徴の配置関係に関する情報な
ど)に基づいた詳細にわたる処理が可能となる。Also, by giving priority to the feedback input from the upper layer when searching for an object and giving priority to the feedback input from the intermediate layer when recognizing the object, a higher order is used when only an object belonging to a predetermined category is detected. Search based on the features of the pattern (overall features of the pattern), and in the case of identifying and recognizing similar objects, medium-level features (such as patterns that form part of the whole and information on the arrangement relationship of the features) , Processing can be performed in detail.
【0288】また、所定の注視度が大の時には注視領域
の中心位置の時間的変動を小さくしたことにより、視覚
探索時の注視位置のゆらぎを可変とし、注視度に応じた
探索効率の向上と探索時間の短縮を実現する。When the predetermined degree of gaze is large, the temporal fluctuation of the center position of the gaze area is reduced, so that the fluctuation of the gaze position at the time of visual search can be varied to improve the search efficiency according to the degree of gaze. Achieve shorter search time.
【0289】また、注視領域のサイズを認識対象カテゴ
リに属するパターンに関する検出されたスケールレベル
に基づいて設定することを特徴とする。これにより、予
め対象のサイズがわからなくても処理チャネルにより予
め対応づけられたサイズを推定サイズとして用いること
ができ、高効率な注視領域サイズの設定をすることがで
きる。Also, the size of the gaze area is set based on the detected scale level of the pattern belonging to the category to be recognized. As a result, even if the size of the target is not known in advance, the size previously associated with the processing channel can be used as the estimated size, and the gaze area size can be set with high efficiency.
【0290】また注視度は、上位層からのフィードバッ
ク信号レベルの大きさの単調増加関数であるすることに
より、高次特徴の検出レベルが高いほど注視度が高いも
のとして、その高次特徴に応じた自動処理を行うことが
できる。Since the degree of fixation is a monotonically increasing function of the magnitude of the level of the feedback signal from the upper layer, it is assumed that the degree of fixation increases as the detection level of the higher-order feature increases. Automatic processing can be performed.
【0291】更に、上述したパターン検出装置からの出
力信号に基づき、動作を制御することにより、低消費電
力かつ高速に特定被写体をターゲットとした画像入力が
任意の被写体距離で可能となる。この画像入力機器とし
て、いわゆる静止画像、動画像その他立体画像などの撮
影装置、及び複写機、ファクシミリ、プリンタその他の
画像入力部を含む機器に適用できる。Further, by controlling the operation based on the output signal from the above-described pattern detection device, it becomes possible to input an image targeting a specific subject at low power consumption and at an arbitrary subject distance. As the image input device, the present invention can be applied to a photographing device for so-called still images, moving images, and other three-dimensional images, and a device including a copier, a facsimile, a printer, and other image input units.
【0292】また、所定の基準に合致する注視領域を設
定し、設定された注視領域を中心とする撮影条件の最適
化制御を行うことにより、撮影対象を高効率に探索し、
検出された対象に応じた最適自動撮影が可能となる。[0292] Further, by setting a gazing area that matches a predetermined criterion and performing optimization control of photographic conditions centering on the set gazing area, a photographic subject can be searched with high efficiency.
Optimal automatic shooting according to the detected target can be performed.
【0293】更に、検出した視線などのユーザからのア
シスト情報に基づき注視領域を更新又は設定することに
より、注視領域の設定制御を高速かつ確実に行う事がで
きる。Furthermore, by updating or setting the gaze area based on the detected assist information from the user such as the line of sight, the gaze area setting control can be performed quickly and reliably.
【0294】[0294]
【発明の効果】以上説明したように、本発明によれば、
注視領域の設定を高効率に行ないながら、所定のパター
ンの検出を高速に行うことができる。As described above, according to the present invention,
The detection of a predetermined pattern can be performed at high speed while setting the gaze area with high efficiency.
【図1】本発明に係る一実施形態のネットワーク構成を
示すブロック図である。FIG. 1 is a block diagram illustrating a network configuration according to an embodiment of the present invention.
【図2】シナプス部とニューロン素子部の構成を示す図
である。FIG. 2 is a diagram showing a configuration of a synapse section and a neuron element section.
【図3】実施形態1において特徴統合層または入力層か
ら特徴検出層ニューロンへの複数パルス伝播の様子を示
す図である。FIG. 3 is a diagram showing how multiple pulses propagate from a feature integration layer or an input layer to a feature detection layer neuron in the first embodiment.
【図4】シナプス回路の構成図を示す図である。FIG. 4 is a diagram showing a configuration diagram of a synapse circuit.
【図5】シナプス結合小回路の構成、及び実施形態1で
用いるパルス位相遅延回路の構成を示す図である。FIG. 5 is a diagram showing a configuration of a synapse coupling small circuit and a configuration of a pulse phase delay circuit used in the first embodiment.
【図6】特徴検出層ニューロンにペースメーカニューロ
ンからの入力がある場合のネットワーク構成を示す図で
ある。FIG. 6 is a diagram showing a network configuration in a case where an input from a pacemaker neuron is provided to a feature detection layer neuron.
【図7】特徴検出ニューロンに入力される異なる特徴要
素に対応する複数パルスを処理する際の時間窓の構成、
重み関数分布の例、特徴要素の例を示す図である。FIG. 7 shows a configuration of a time window when processing a plurality of pulses corresponding to different feature elements input to the feature detection neuron,
It is a figure which shows the example of a weight function distribution, and the example of a characteristic element.
【図8】各層の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of each layer.
【図9】各特徴検出ニューロンの処理手順を示すフロー
チャートである。FIG. 9 is a flowchart illustrating a processing procedure of each feature detection neuron.
【図10】各特徴統合ニューロンの処理手順を示すフロ
ーチャートである。FIG. 10 is a flowchart illustrating a processing procedure of each feature integration neuron.
【図11】実施形態に係るパターン検出(認識)装置を
撮像装置に用いた例の構成を示す図である。FIG. 11 is a diagram illustrating a configuration of an example in which the pattern detection (recognition) device according to the embodiment is used for an imaging device.
【図12】特徴統合層の回路構成を示す図である。FIG. 12 is a diagram showing a circuit configuration of a feature integration layer.
【図13】特徴統合層の回路構成を示す図である。FIG. 13 is a diagram showing a circuit configuration of a feature integration layer.
【図14】正規化回路の構成を示す図である。FIG. 14 is a diagram illustrating a configuration of a normalization circuit.
【図15】チャネル活性度制御回路の構成を示す図であ
る。FIG. 15 is a diagram showing a configuration of a channel activity control circuit.
【図16】ゲーティング回路の構成を示す図である。FIG. 16 is a diagram illustrating a configuration of a gating circuit.
【図17】実施形態1のネットワーク構成を示すブロッ
ク図である。FIG. 17 is a block diagram illustrating a network configuration according to the first embodiment.
【図18】注視制御層内の注視制御ニューロンを中心と
した結合模式図である。FIG. 18 is a schematic connection diagram centered on a gaze control neuron in a gaze control layer.
【図19】注視位置制御回路の構成を示す図である。FIG. 19 is a diagram illustrating a configuration of a gaze position control circuit.
【図20】注視領域設定制御層を中心とするネットワー
ク構成を示す図である。FIG. 20 is a diagram illustrating a network configuration centered on a gaze area setting control layer.
【図21】注視領域設定制御層を中心とするネットワー
ク構成を示す図である。FIG. 21 is a diagram showing a network configuration centering on a gaze area setting control layer.
【図22】注視制御ニューロンへの下位層入力と上位層
フィードバック入力の配分制御回路を示す図である。FIG. 22 is a diagram showing a distribution control circuit for lower-layer input and upper-layer feedback input to the gaze control neuron.
【図23】スケール選択性の異なる複数処理チャネル出
力を集団的符号化により統合した場合の出力例を示す図
である。FIG. 23 is a diagram illustrating an output example when outputs of multiple processing channels having different scale selectivities are integrated by collective encoding.
【図24】実施形態2で用いるネットワーク構成を示す
図である。FIG. 24 is a diagram illustrating a network configuration used in the second embodiment.
【図25】フィードバック量変調回路での処理の流れを
示す図である。FIG. 25 is a diagram showing a flow of processing in a feedback amount modulation circuit.
【図26】実施形態3の注視制御層を中心とした構成を
示す図である。FIG. 26 is a diagram illustrating a configuration centering on a gaze control layer according to the third embodiment.
【図27】注視位置の設定制御に関する処理の流れを示
すフローチャートである。FIG. 27 is a flowchart showing the flow of processing related to gaze position setting control.
【図28】選択的注視機構を撮影装置に内臓させた場合
の制御の流れを示すフローチャートである。FIG. 28 is a flowchart showing a control flow when the selective gaze mechanism is incorporated in the photographing apparatus.
【図29】被写体認識機構を備えた画像入力装置を示す
図である。FIG. 29 is a diagram illustrating an image input device including a subject recognition mechanism.
Claims (30)
りサンプリングして得られる各点に対応して、それぞれ
複数の特徴を検出する複数個の特徴検出素子を複数の階
層に備え、所定パターンの検出を行なう検出処理手段
と、 前記複数の階層の上位層からのフィードバック信号の分
布に基づき、前記複数の階層の下位層出力に関する注視
領域の設定を制御する注視領域設定制御手段とを有する
ことを特徴とするパターン検出装置。1. An input means for inputting a pattern, and a plurality of feature detection means for detecting a plurality of features corresponding to each point obtained by sampling the pattern input from the input means by a predetermined method. A detection processing unit that includes an element in a plurality of layers and detects a predetermined pattern; and controls a setting of a gaze area with respect to an output of a lower layer of the plurality of layers based on a distribution of a feedback signal from an upper layer of the plurality of layers. A pattern detection device, comprising:
置及びサイズの設定を更新することを特徴とする請求項
1に記載のパターン検出装置。2. The pattern detection apparatus according to claim 1, wherein the gaze area setting unit updates the setting of the position and size of the gaze area.
りサンプリングして得られる各点に対応して、それぞれ
複数の特徴を検出する複数個の特徴検出素子と、特徴顕
著度を検出する顕著度検出素子と、前記素子間を結合し
信号を伝達する結合手段とを備え、低次から高次までの
特徴に関する複数の素子層を形成し、所定パターンの検
出を行なう検出処理手段と、 注視領域設定制御手段とを有し、 前記結合手段は、高次の特徴に関する素子層からそれよ
り低次の特徴に関する素子層への信号伝達を行うフィー
ドバック結合手段を備え、 前記注視領域設定制御手段は、前記特徴顕著度と前記フ
ィードバック結合手段より得られる信号伝達量とに基づ
いて、低次の特徴データ又は入力データに関する注視領
域の設定を制御することを特徴とするパターン検出装
置。3. An input means for inputting a pattern, and a plurality of feature detection means for detecting a plurality of features corresponding to each point obtained by sampling the pattern input from the input means by a predetermined method. An element, a saliency detection element for detecting feature saliency, and coupling means for coupling between the elements and transmitting a signal, forming a plurality of element layers relating to characteristics from low to high, forming a predetermined pattern Detection processing means for performing detection of a target, and gaze area setting control means, wherein the coupling means is a feedback coupling means for transmitting a signal from an element layer relating to a higher-order characteristic to an element layer relating to a lower-order characteristic. The gaze area setting control means includes a function for controlling low-order feature data or input data based on the feature saliency and a signal transmission amount obtained from the feedback combining means. Pattern detecting apparatus characterized by controlling the setting of the fixation region that.
置及びサイズの設定を更新することを特徴とする請求項
3に記載のパターン検出装置。4. The pattern detecting apparatus according to claim 3, wherein the gaze area setting unit updates the setting of the position and size of the gaze area.
号伝達量と低次特徴の顕著度とに基づき注視位置優先度
を各入力データ上のサンプリング点位置で求める優先度
算出手段と前記優先度の分布から優先度の高い順に注視
位置を設定する注視位置設定手段とを有することを特徴
とする請求項3に記載のパターン検出装置。5. The gaze area setting control means determines a gaze position priority based on a signal transmission amount from the feedback coupling means and a saliency of a low-order feature based on a position of a gaze area and a sampling point position on each input data. 4. The pattern detection apparatus according to claim 3, further comprising: a priority calculation unit obtained in step (1), and a gaze position setting unit that sets a gaze position in descending order of priority from the priority distribution.
により注視位置を設定可能な優先度の許容範囲を制御す
る制御手段とを有することを特徴とする請求項5に記載
のパターン検出装置。6. The gaze area setting control means counts a gaze position search count, and a priority allowable range in which the gaze position can be set by the gaze position setting means according to the gaze position search count. 6. A pattern detecting apparatus according to claim 5, further comprising control means for controlling the pattern detection.
又は解像度に対応する複数の処理チャネルを有し、 前記注視領域設定制御手段は、前記優先度に基づいて選
択された特徴の属する処理チャネルに基づき注視領域の
サイズを制御することを特徴とする請求項5に記載のパ
ターン検出装置。7. The detection unit has a plurality of processing channels corresponding to a plurality of scale levels or resolutions, and the gaze area setting control unit determines a processing channel to which a feature selected based on the priority belongs. The pattern detection apparatus according to claim 5, wherein the size of the gaze area is controlled based on the gaze area.
を低次特徴検出層に属する特徴検出素子のアクティブな
受容野として設定制御することを特徴とする請求項3に
記載のパターン検出装置。8. The pattern detection apparatus according to claim 3, wherein the gaze area setting control means sets and controls the gaze area as an active receptive field of a feature detection element belonging to a low-order feature detection layer.
カテゴリに属する対象の位置と存在確率に関する情報を
出力する上位層からのフィードバック結合と当該認識カ
テゴリの対象が有する中次特徴の位置と存在確率に関す
る情報を出力する中間層からのフィードバック結合を受
け、当該対象の探索時には前記上位層からのフィードバ
ック入力を、当該対象の認識時には前記中間層からのフ
ィードバック入力を優先することを特徴とする請求項3
に記載のパターン検出装置。9. The gaze area setting control means includes a feedback connection from an upper layer that outputs information on the position and existence probability of a target belonging to a recognition target category, and the position and presence of a secondary feature included in the target of the recognition category. Receiving feedback from an intermediate layer that outputs information about the probability, giving priority to the feedback input from the upper layer when searching for the target, and giving priority to the feedback input from the intermediate layer when recognizing the target. Item 3
3. The pattern detection device according to 1.
注視度が大の時には注視領域の中心位置の時間的変動を
小さくしたことを特徴とする請求項3に記載のパターン
検出装置。10. The pattern detecting apparatus according to claim 3, wherein said gaze area setting control means reduces a temporal variation of a center position of the gaze area when a predetermined degree of gaze is large.
ードバック信号レベルの大きさの単調増加関数値である
ことを特徴とする請求項9又は請求項11に記載のパタ
ーン検出装置。11. The pattern detection apparatus according to claim 9, wherein the degree of gaze is a monotonically increasing function value of the magnitude of a feedback signal level from the upper layer.
出する特徴検出層と当該特徴検出層からの出力を所定の
方法で統合して出力する特徴統合層とをそれぞれ少なく
とも1層有する階層的ネットワーク構造を備え、所定パ
ターンの検出を行なう検出処理手段と、 注視領域設定制御手段とを有し、 前記特徴検出層及び特徴統合層が、所定の結合手段によ
り互いに結合する複数の素子を備え、 前記特徴検出層又は前記特徴統合層は特徴顕著度を検出
する顕著度検出素子を有し、 前記結合手段は、前記階層的ネットワーク構造の上位層
から下位層への信号伝達を行うフィードバック結合手段
を有し、 前記注視領域設定制御手段は、前記フィードバック結合
手段からの信号及び前記特徴顕著度に基づいて、注視領
域に関する制御信号を発生することを特徴とするパター
ン検出装置。12. An input means for inputting a pattern, a feature detection layer for extracting a plurality of features for each of a plurality of resolutions or scale levels, and a feature integration for integrating and outputting the outputs from the feature detection layer by a predetermined method. A hierarchical network structure having at least one layer and a detection processing unit for detecting a predetermined pattern; and a gaze area setting control unit. Wherein the feature detection layer or the feature integration layer has a saliency detection element for detecting feature saliency, and wherein the coupling means comprises an upper layer to a lower layer of the hierarchical network structure. A feedback coupling unit that transmits a signal to the gaze area setting control unit, wherein the attention area setting control unit includes a signal from the feedback coupling unit and the characteristic saliency. A pattern detection apparatus for generating a control signal for a gaze area based on the pattern detection apparatus.
域のサイズを認識対象カテゴリに属する前記パターンに
関する検出されたスケールレベルに基づいて設定するこ
とを特徴とする請求項12に記載のパターン検出装置。13. The pattern detection apparatus according to claim 12, wherein the gaze area setting control unit sets the size of the gaze area based on a detected scale level of the pattern belonging to the recognition target category. .
し、階層的構造を有する複数の処理手段とを有し、 前記複数の処理手段は、 前記入力データを所定の方法によりサンプリングして得
られる各点に対応して、それぞれ複数の特徴を検出する
複数個の特徴検出素子と、 互いに異なる解像度又はスケールレベルに対応する前記
処理手段の複数の特徴検出素子出力を結合する多重化処
理手段と、 異なる素子間の信号伝達を行う結合手段とを有し、 前記結合手段は、上位層から下位層への信号伝達を行う
フィードバック結合手段を有し、 所定パターンの検出を行なうことを特徴とするパターン
検出装置。14. An input means for inputting a pattern, a gaze area setting control means, and a plurality of processing means each corresponding to a different resolution or scale level and having a hierarchical structure, Corresponds to each point obtained by sampling the input data by a predetermined method, a plurality of feature detecting elements for detecting a plurality of features, respectively, and the processing means of the processing means corresponding to different resolutions or scale levels. Multiplexing processing means for combining a plurality of feature detection element outputs, and coupling means for performing signal transmission between different elements, wherein the coupling means includes feedback coupling means for performing signal transmission from an upper layer to a lower layer. A pattern detection device, comprising: detecting a predetermined pattern.
域のサイズを認識対象カテゴリに属する前記パターンに
関する検出されたスケールレベルに基づいて設定するこ
とを特徴とする請求項14に記載のパターン検出装置。15. The pattern detection apparatus according to claim 14, wherein the gaze area setting control means sets the size of the gaze area based on a detected scale level of the pattern belonging to the recognition target category. .
ータ又は入力データに関する注視領域の設定を制御する
ことを特徴とする請求項14に記載のパターン検出装
置。16. The pattern detection apparatus according to claim 14, wherein said gaze area setting control means controls setting of a gaze area relating to feature data or input data.
域のサイズを認識対象カテゴリに属するパターンに関し
て検出されたスケールレベルに基づいて設定することを
特徴とする請求項16に記載のパターン検出装置。17. The pattern detecting apparatus according to claim 16, wherein the gaze area setting control means sets the size of the gaze area based on a scale level detected for a pattern belonging to a recognition target category.
検出装置からの出力信号に基づき、動作を制御すること
を特徴とする画像処理装置。18. An image processing apparatus for controlling an operation based on an output signal from the pattern detection apparatus according to claim 1. Description:
憶する記憶手段と、 注視領域を順次更新しながら前記モデルデータに関して
所定の基準に合致する注視領域を探索して設定する注視
領域設定手段と、 前記注視領域設定手段により設定された注視領域に基づ
いて撮影条件を決定する決定手段とを有することを特徴
とする画像処理装置。19. a storage means for storing model data of an imaging target; a gaze area setting means for searching for and setting a gaze area that meets a predetermined standard with respect to the model data while sequentially updating the gaze area; An image processing apparatus comprising: a determination unit configured to determine a photographing condition based on the gaze area set by the gaze area setting unit.
化する初期化手段を有することを特徴とする請求項19
に記載の画像処理装置。20. An apparatus according to claim 19, further comprising initialization means for initializing the gaze area in a photographing standby state.
An image processing apparatus according to claim 1.
た注視領域に対応する撮影対象を表示する表示手段を有
することを特徴とする請求項19に記載の画像処理装
置。21. The image processing apparatus according to claim 19, further comprising display means for displaying a photographing target corresponding to the gazing area set by said gazing area setting means.
前記注視領域設定手段は、注視領域設定後所定時間以内
に当該検出手段がシャッタ駆動信号を検出しない場合に
は、注視領域の探索を再開することを特徴とする請求項
19記載の画像処理装置。22. A shutter driving signal detecting means,
20. The image processing apparatus according to claim 19, wherein the gaze area setting unit restarts the search for the gaze area when the detection unit does not detect the shutter drive signal within a predetermined time after setting the gaze area.
注視位置検出手段と、 前記注視位置に基づいて注視領域を探索して設定する注
視領域設定手段と、 前記注視領域設定手段により設定された注視領域に基づ
いて撮影条件を決定する決定手段とを有することを特徴
とする画像処理装置。23. A gaze position detecting means for detecting a gaze position from a user's gaze; a gaze area setting means for searching and setting a gaze area based on the gaze position; and a gaze set by the gaze area setting means. Determining means for determining a photographing condition based on the region.
置近傍を探索することを特徴とする請求項23に記載の
画像処理装置。24. The image processing apparatus according to claim 23, wherein the gaze area setting unit searches for the vicinity of the gaze position.
グして得られる各点に対応して、それぞれ複数の特徴を
検出する特徴検出処理を階層的に実行して、所定パター
ンの検出を行なう検出処理ステップと、 前記検出処理ステップの上位層からのフィードバック信
号の分布に基づき、前記検出処理ステップの下位層出力
に関する注視領域の設定を制御する注視領域設定制御ス
テップとを有することを特徴とするパターン検出方法。25. An input step of inputting a pattern, and a feature detection process of detecting a plurality of features corresponding to each point obtained by sampling the input pattern by a predetermined method is performed in a hierarchical manner. A detection processing step of detecting a predetermined pattern; and a gaze area setting control for controlling setting of a gaze area related to an output of a lower layer of the detection processing step based on a distribution of a feedback signal from an upper layer of the detection processing step. And a pattern detecting method.
う検出処理ステップと、 注視領域設定制御ステップとを有し、 前記検出処理ステップは、入力された前記パターンを所
定の方法によりサンプリングして得られる各点に対応し
て、それぞれ低次から高次までの特徴に関する複数の特
徴を検出する複数個の特徴検出ステップと、特徴顕著度
を検出する顕著度検出ステップとを備え、 前記注視領域設定制御ステップは、前記特徴顕著度と前
記高次の特徴に関するフィードバック信号に基づいて低
次特徴データ又は入力データに関する注視領域の位置及
びサイズを設定制御することを特徴とするパターン検出
方法。26. An input step of inputting a pattern, a detection processing step of detecting a predetermined pattern from the input pattern, and a gaze area setting control step, wherein the detection processing step A plurality of feature detecting steps for detecting a plurality of features relating to features from low order to high order, corresponding to each point obtained by sampling the pattern by a predetermined method, and a saliency detecting a feature saliency Detecting step, the gaze area setting control step, based on the feature saliency and the feedback signal related to the higher-order features, to set and control the position and size of the gaze area related to low-order feature data or input data. Characteristic pattern detection method.
う検出処理ステップと、 注視領域設定制御ステップとを有し、 前記検出処理ステップは、 複数の解像度又はスケールレベルごとに複数の特徴を抽
出する特徴検出ステップと当該特徴検出ステップの出力
を所定の方法で統合して出力する特徴統合ステップとを
それぞれ少なくとも1つ有する階層的処理構造を有し、 前記特徴検出ステップ又は前記特徴統合ステップは特徴
顕著度を検出する顕著度検出ステップを備え、 前記注視領域設定制御ステップは、前記階層的処理構造
の上位フィードバック信号及び前記特徴顕著度に基づい
て、注視領域に関する制御信号を発生することを特徴と
するパターン検出方法。27. An input step of inputting a pattern, a detection processing step of detecting a predetermined pattern from the input pattern, and a gaze area setting control step, wherein the detection processing step includes a plurality of resolutions or A hierarchical processing structure having at least one feature detecting step of extracting a plurality of features for each scale level and at least one feature integrating step of integrating and outputting the outputs of the feature detecting steps by a predetermined method; The detection step or the feature integration step includes a saliency level detection step of detecting a feature saliency level, and the gaze area setting control step relates to a gaze area based on the upper feedback signal of the hierarchical processing structure and the feature saliency level. A pattern detection method characterized by generating a control signal.
ターンの検出を行なう検出処理ステップとを有し、 前記検出処理ステップが、 前記入力データを所定の方法によりサンプリングして得
られる各点に対応して、それぞれ複数の特徴を検出する
複数個の特徴検出ステップと、 互いに異なる解像度又はスケールレベルに関する前記デ
ータ処理ステップの複数の出力を結合する解像度又はス
ケールレベルの多重化処理ステップとを備えたことを特
徴とするパターン検出方法。28. An input step of inputting a pattern, a gaze area setting control step, a detection processing step configured to detect a predetermined pattern from the input pattern, the detection processing step comprising: A plurality of feature detection steps for respectively detecting a plurality of features corresponding to each point obtained by sampling the input data by a predetermined method; and a plurality of the data processing steps related to mutually different resolutions or scale levels. And a resolution or scale level multiplexing step of combining the outputs of the patterns.
象についてのモデルデータに関して所定の基準に合致す
る注視領域を探索して設定する設定ステップと、 前記設定ステップにより設定された注視領域に基づいて
撮影条件を決定するステップとを有することを特徴とす
る画像処理方法。29. A setting step of searching for and setting a gaze area that matches a predetermined criterion with respect to model data of an imaging target while sequentially updating the gaze area, based on the gaze area set in the setting step. Determining a photographing condition.
注視位置検出ステップと、 前記注視位置に基づいて注視領域を探索して設定する設
定ステップと、 前記設定ステップにより設定された注視領域に基づいて
撮影条件を決定する決定ステップとを有することを特徴
とする画像処理方法。30. A gaze position detecting step of detecting a gaze position from a user's line of sight, a setting step of searching for and setting a gaze area based on the gaze position, and based on the gaze area set in the setting step. Determining a photographing condition.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000181480A JP4510237B2 (en) | 2000-06-16 | 2000-06-16 | Pattern detection apparatus and method, image processing apparatus and method |
| US09/878,296 US7054850B2 (en) | 2000-06-16 | 2001-06-12 | Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements |
| EP01305231A EP1164537B1 (en) | 2000-06-16 | 2001-06-15 | Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements |
| DE60128029T DE60128029T2 (en) | 2000-06-16 | 2001-06-15 | Apparatus and method for detecting or recognizing patterns by means of a plurality of feature detection elements |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000181480A JP4510237B2 (en) | 2000-06-16 | 2000-06-16 | Pattern detection apparatus and method, image processing apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002008031A true JP2002008031A (en) | 2002-01-11 |
| JP4510237B2 JP4510237B2 (en) | 2010-07-21 |
Family
ID=18682403
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000181480A Expired - Fee Related JP4510237B2 (en) | 2000-06-16 | 2000-06-16 | Pattern detection apparatus and method, image processing apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4510237B2 (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005215988A (en) * | 2004-01-29 | 2005-08-11 | Canon Inc | Pattern recognition learning method, pattern recognition learning device, image input device, computer program, and computer-readable recording medium |
| JP2005267105A (en) * | 2004-03-17 | 2005-09-29 | Canon Inc | Parallel pulse signal processing device, pattern recognition device, and image input device |
| JP2005346472A (en) * | 2004-06-03 | 2005-12-15 | Canon Inc | Information processing method, information processing apparatus, and imaging apparatus |
| JP2007282119A (en) * | 2006-04-11 | 2007-10-25 | Nikon Corp | Electronic camera and image processing apparatus |
| JP2007282118A (en) * | 2006-04-11 | 2007-10-25 | Nikon Corp | Electronic camera and image processing apparatus |
| JP2009535680A (en) * | 2006-04-28 | 2009-10-01 | トヨタ モーター ヨーロッパ ナムローゼ フェンノートシャップ | Robust interest point detector and descriptor |
| US7889886B2 (en) | 2005-07-26 | 2011-02-15 | Canon Kabushiki Kaisha | Image capturing apparatus and image capturing method |
| KR20170130634A (en) * | 2010-05-17 | 2017-11-28 | 혼다 기켄 고교 가부시키가이샤 | Solar fuel cell |
| CN108537122A (en) * | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | Image fusion acquisition system containing meteorological parameters and image storage method |
| CN108717689A (en) * | 2018-05-16 | 2018-10-30 | 北京理工大学 | Middle LONG WAVE INFRARED image interfusion method and device applied to naval vessel detection field under sky and ocean background |
| CN109870293A (en) * | 2019-03-15 | 2019-06-11 | 合肥鑫晟光电科技有限公司 | The detection method and detection device of display panel |
| CN113792771A (en) * | 2021-08-31 | 2021-12-14 | 青岛信芯微电子科技股份有限公司 | TCON chip for processing graphic card |
| JP2022533704A (en) * | 2019-05-20 | 2022-07-25 | シノプシス, インコーポレイテッド | Classifying Patterns in Electronic Circuit Layouts Using Machine Learning-Based Encoding |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05307605A (en) * | 1991-09-12 | 1993-11-19 | Fuji Photo Film Co Ltd | Method for extracting subject |
| JPH08315141A (en) * | 1995-05-15 | 1996-11-29 | Mitsubishi Electric Corp | Image recognition device |
-
2000
- 2000-06-16 JP JP2000181480A patent/JP4510237B2/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05307605A (en) * | 1991-09-12 | 1993-11-19 | Fuji Photo Film Co Ltd | Method for extracting subject |
| JPH08315141A (en) * | 1995-05-15 | 1996-11-29 | Mitsubishi Electric Corp | Image recognition device |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005215988A (en) * | 2004-01-29 | 2005-08-11 | Canon Inc | Pattern recognition learning method, pattern recognition learning device, image input device, computer program, and computer-readable recording medium |
| JP2005267105A (en) * | 2004-03-17 | 2005-09-29 | Canon Inc | Parallel pulse signal processing device, pattern recognition device, and image input device |
| JP2005346472A (en) * | 2004-06-03 | 2005-12-15 | Canon Inc | Information processing method, information processing apparatus, and imaging apparatus |
| US7889886B2 (en) | 2005-07-26 | 2011-02-15 | Canon Kabushiki Kaisha | Image capturing apparatus and image capturing method |
| US8180106B2 (en) | 2005-07-26 | 2012-05-15 | Canon Kabushiki Kaisha | Image capturing apparatus and image capturing method |
| JP2007282119A (en) * | 2006-04-11 | 2007-10-25 | Nikon Corp | Electronic camera and image processing apparatus |
| JP2007282118A (en) * | 2006-04-11 | 2007-10-25 | Nikon Corp | Electronic camera and image processing apparatus |
| JP2009535680A (en) * | 2006-04-28 | 2009-10-01 | トヨタ モーター ヨーロッパ ナムローゼ フェンノートシャップ | Robust interest point detector and descriptor |
| KR20170130634A (en) * | 2010-05-17 | 2017-11-28 | 혼다 기켄 고교 가부시키가이샤 | Solar fuel cell |
| CN108537122A (en) * | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | Image fusion acquisition system containing meteorological parameters and image storage method |
| CN108537122B (en) * | 2018-03-07 | 2023-08-22 | 中国科学院西安光学精密机械研究所 | Image fusion acquisition system including meteorological parameters and image storage method |
| CN108717689A (en) * | 2018-05-16 | 2018-10-30 | 北京理工大学 | Middle LONG WAVE INFRARED image interfusion method and device applied to naval vessel detection field under sky and ocean background |
| CN109870293A (en) * | 2019-03-15 | 2019-06-11 | 合肥鑫晟光电科技有限公司 | The detection method and detection device of display panel |
| JP2022533704A (en) * | 2019-05-20 | 2022-07-25 | シノプシス, インコーポレイテッド | Classifying Patterns in Electronic Circuit Layouts Using Machine Learning-Based Encoding |
| JP7538818B2 (en) | 2019-05-20 | 2024-08-22 | シノプシス, インコーポレイテッド | Classifying patterns in electronic circuit layouts using machine learning based coding |
| CN113792771A (en) * | 2021-08-31 | 2021-12-14 | 青岛信芯微电子科技股份有限公司 | TCON chip for processing graphic card |
| CN113792771B (en) * | 2021-08-31 | 2024-03-08 | 青岛信芯微电子科技股份有限公司 | TCON chip for processing graphics card |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4510237B2 (en) | 2010-07-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7054850B2 (en) | Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements | |
| JP4208485B2 (en) | Pulse signal processing circuit, parallel processing circuit, pattern recognition device, and image input device | |
| US7707128B2 (en) | Parallel pulse signal processing apparatus with pulse signal pulse counting gate, pattern recognition apparatus, and image input apparatus | |
| US7274819B2 (en) | Pattern recognition apparatus using parallel operation | |
| US7028271B2 (en) | Hierarchical processing apparatus | |
| JP4478296B2 (en) | Pattern detection apparatus and method, image input apparatus and method, and neural network circuit | |
| Kurniawan et al. | Traffic congestion detection: learning from CCTV monitoring images using convolutional neural network | |
| US8015130B2 (en) | Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method | |
| US20170337469A1 (en) | Anomaly detection using spiking neural networks | |
| JP2002008031A (en) | Pattern detection apparatus and method, image processing apparatus and method | |
| CN113853612A (en) | Adaptive motion recognizer for video | |
| Jie et al. | Anytime recognition with routing convolutional networks | |
| JP4532678B2 (en) | Pattern detection apparatus and method, image processing apparatus and method, and neural network apparatus | |
| US20030004583A1 (en) | Signal processing circuit involving local synchronous behavior | |
| JP4314017B2 (en) | Hierarchical processing device | |
| JP4898018B2 (en) | Signal processing circuit and pattern recognition device | |
| JP2002358502A (en) | Parallel pulse signal processing device, pulse output element, and pattern recognition device | |
| JP2002358501A (en) | Signal processing circuit | |
| McDonald et al. | Modelling retinal ganglion cells using self-organising fuzzy neural networks | |
| KR20210116873A (en) | Multi Deep Learning Network Fusion Framework based on Network Calibration | |
| Connolly et al. | Incremental adaptation of fuzzy ARTMAP neural networks for video-based face classification | |
| Malasne et al. | Real time implementation of a face tracking |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070618 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091106 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091117 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100118 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100209 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100412 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100427 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100430 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140514 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |