[go: up one dir, main page]

JP2008191754A - Abnormality detection apparatus and abnormality detection method - Google Patents

Abnormality detection apparatus and abnormality detection method Download PDF

Info

Publication number
JP2008191754A
JP2008191754A JP2007022947A JP2007022947A JP2008191754A JP 2008191754 A JP2008191754 A JP 2008191754A JP 2007022947 A JP2007022947 A JP 2007022947A JP 2007022947 A JP2007022947 A JP 2007022947A JP 2008191754 A JP2008191754 A JP 2008191754A
Authority
JP
Japan
Prior art keywords
normal
feature data
abnormality
data
subspace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007022947A
Other languages
Japanese (ja)
Other versions
JP4742370B2 (en
Inventor
Takumi Kobayashi
匠 小林
Nobuyuki Otsu
展之 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2007022947A priority Critical patent/JP4742370B2/en
Publication of JP2008191754A publication Critical patent/JP2008191754A/en
Application granted granted Critical
Publication of JP4742370B2 publication Critical patent/JP4742370B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】任意の多次元特徴データから通常とは異なる異常状態を高い精度で検出することができる異常検出装置を提供すること。
【解決手段】異常検出装置は、多次元の特徴データを抽出する手段、予め主成分分析により求められている正常部分空間と特徴データとの角度を計算する手段、角度が所定値よりも大きい場合に異常と判定する第1の異常判定手段、第1の異常判定手段によって異常と判定されなかった特徴データを正常部分空間へ射影する手段、射影手段によって射影された特徴データが予め求められている正常サンプルの分布範囲内か否かを判定する第2の異常判定手段とを備える。従来異常であるのに正常と判定されていた事象についても異常の判定が可能となり、異常判定の精度が向上する。
【選択図】図1
To provide an abnormality detection apparatus capable of detecting an abnormal state different from normal from arbitrary multidimensional feature data with high accuracy.
An anomaly detection device includes means for extracting multidimensional feature data, means for calculating an angle between a normal subspace obtained in advance by principal component analysis and feature data, and when the angle is greater than a predetermined value. First abnormality determining means for determining abnormality, means for projecting feature data not determined to be abnormal by the first abnormality determining means to normal subspace, and feature data projected by the projecting means are obtained in advance. Second abnormality determining means for determining whether or not the distribution range is within a normal sample range. An abnormality can be determined even for an event that has been determined to be normal even though it is abnormal in the past, and the accuracy of abnormality determination is improved.
[Selection] Figure 1

Description

本発明は、異常検出装置および異常検出方法に関し、特に、任意の被検出対象から得られた任意の多次元特徴データから通常とは異なる異常状態を高い精度で検出することができる異常検出装置および異常検出方法に関するものである。   The present invention relates to an anomaly detection apparatus and an anomaly detection method, and in particular, an anomaly detection apparatus capable of detecting an abnormal state different from normal from any multidimensional feature data obtained from any object to be detected with high accuracy, and The present invention relates to an abnormality detection method.

従来、セキュリティ分野における映像監視や老人介護のモニタリングシステムなど、カメラによる監視システムが多く利用されているが、これらは人が監視を行うシステムであった。そこで、コンピュータによる動画像からの異常状態の自動検出システムが求められている。従って、対象に対して動作特徴を抽出するような動画像からの動作認識が必要となる。   Conventionally, many monitoring systems using cameras such as video surveillance in the security field and monitoring systems for elderly care have been used, but these are systems for human monitoring. Thus, there is a need for an automatic detection system for abnormal states from moving images by a computer. Therefore, it is necessary to recognize motion from a moving image that extracts motion features for the target.

動作認識の研究として、本発明者の一部らが発表した下記の特許文献1には、立体高次局所自己相関特徴(以下、CHLACデータとも記す)を用いた異常動作認識を行う技術が開示されている。特許文献1の異常動作検出装置は、ビデオカメラから入力される動画像データからフレーム間差分データを生成し、複数のフレーム間差分データからなる3次元データから立体高次局所自己相関によって特徴データを抽出し、過去の特徴データから主成分分析手法により得られた主成分ベクトルに基づく部分空間と、最新の特徴データとの距離を計算する。そして、この距離が所定値よりも大きい場合に異常と判定する。正常動作を部分空間として学習し、異常動作をそこからの逸脱として検出することにより、例えば画面内に複数人いる場合でも1人の異常動作を検出可能である。
特開2006−079272号公報
As a study of motion recognition, the following Patent Document 1 published by some of the present inventors discloses a technique for performing abnormal motion recognition using a cubic higher-order local autocorrelation feature (hereinafter also referred to as CHLAC data). Has been. The abnormal motion detection apparatus of Patent Document 1 generates inter-frame difference data from moving image data input from a video camera, and obtains feature data from three-dimensional data composed of a plurality of inter-frame difference data by three-dimensional higher-order local autocorrelation. Extracting and calculating the distance between the latest feature data and the partial space based on the principal component vector obtained from the past feature data by the principal component analysis method. And when this distance is larger than predetermined value, it determines with it being abnormal. By learning a normal operation as a partial space and detecting an abnormal operation as a deviation therefrom, it is possible to detect an abnormal operation of one person even when there are a plurality of persons on the screen, for example.
JP 2006-079272 A

上記した従来の異常動作の検出方法においては、主成分分析手法により得られた主成分ベクトルに基づく部分空間と最新の特徴データとの距離によって異常か否かを判定していた。しかし、主成分分析手法により得られた主成分ベクトルに基づく部分空間の近傍や部分空間内にも異常と判定すべき特徴データが存在する可能性があるという問題点があった。本発明の目的はこのような問題点を解決し、任意の被検出対象から得られた任意の多次元特徴データ(特徴ベクトル)から通常とは異なる異常状態を高い精度で検出することができる異常検出装置および異常検出方法を提供する点にある。   In the above-described conventional method for detecting an abnormal operation, whether or not there is an abnormality is determined based on the distance between the subspace based on the principal component vector obtained by the principal component analysis method and the latest feature data. However, there is a problem in that there is a possibility that feature data that should be determined as abnormal may exist in the vicinity of the partial space or in the partial space based on the principal component vector obtained by the principal component analysis method. The object of the present invention is to solve such problems and to detect an abnormal state with high accuracy from any multidimensional feature data (feature vector) obtained from any target to be detected with high accuracy. The object is to provide a detection device and an abnormality detection method.

本発明の異常検出装置は、入力されたデータから特徴データを抽出する特徴データ抽出手段と、予め求められている正常部分空間と前記特徴データ抽出手段により抽出された特徴データとの角度を計算する角度計算手段と、前記角度が所定値よりも大きい場合に異常と判定する第1の異常判定手段と、前記第1の異常判定手段によって異常と判定されなかった特徴データを前記正常部分空間へ射影する射影手段と、予め求められている前記正常部分空間内における正常サンプルの分布範囲情報に基づき、前記射影手段によって射影された特徴データが正常サンプルの分布範囲内か否かを判定する第2の異常判定手段とを備えたことを主要な特徴とする。
また、前記した異常検出装置において、更に、学習用の入力データに基づき、前記特徴データ抽出手段によって抽出された複数の特徴データから主成分分析手法により得られた主成分ベクトルに基づいて前記正常部分空間を算出し、更に前記射影手段によって前記正常部分空間に射影された特徴データから正常部分空間内における正常サンプルの分布範囲情報を算出する学習手段を備えた点にも特徴がある。
The abnormality detection apparatus of the present invention calculates feature data extraction means for extracting feature data from input data, and an angle between a normal subspace obtained in advance and the feature data extracted by the feature data extraction means. An angle calculation unit, a first abnormality determination unit that determines an abnormality when the angle is greater than a predetermined value, and feature data that has not been determined to be abnormal by the first abnormality determination unit is projected onto the normal subspace A second projecting means for determining whether the feature data projected by the projecting means is within the distribution range of the normal sample based on the distribution range information of the normal sample in the normal subspace obtained in advance. The main feature is that an abnormality determining means is provided.
Moreover, in the above-described abnormality detection device, the normal part is further based on a principal component vector obtained by a principal component analysis method from a plurality of feature data extracted by the feature data extraction means based on input data for learning. There is also a feature in that learning means for calculating a space and further calculating distribution range information of normal samples in the normal subspace from the feature data projected onto the normal subspace by the projection means is provided.

また、前記した異常検出装置において、前記正常部分空間内における正常サンプルの分布範囲情報は、正常部分空間内における正常サンプルの分布範囲を包含する円錐の中心を示す方向ベクトル情報および前記円錐の広がりを示す角度情報である点にも特徴がある。
また、前記した異常検出装置において、前記特徴データ抽出手段は、入力された複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、複数の前記フレーム間差分データからなる3次元データから立体高次局所自己相関によって動作特徴データを生成する点にも特徴がある。
また、前記した異常検出装置において、前記射影手段は射影後の特徴データのそれぞれの要素のスケールを正規化するスケール正規化手段を備えた点にも特徴がある。
Further, in the above-described abnormality detection device, the distribution range information of the normal sample in the normal subspace includes direction vector information indicating the center of the cone including the distribution range of the normal sample in the normal subspace and the spread of the cone. The point which is the angle information to show also has the characteristic.
Further, in the above-described abnormality detection device, the feature data extraction unit generates inter-frame difference data from moving image data including a plurality of input image frame data, and three-dimensional data including the plurality of inter-frame difference data. Another feature is that the motion feature data is generated by three-dimensional higher-order local autocorrelation.
Moreover, the above-described abnormality detection apparatus is characterized in that the projection means includes scale normalization means for normalizing the scale of each element of the feature data after projection.

また、前記した異常検出装置において、更に、前記射影された特徴データの前記正常空間内の分布を複数のクラスタに分けるクラスタ分割手段を備え、前記学習手段は分割された各クラスタ毎に前記正常部分空間内における正常サンプルの分布範囲情報を算出し、第2の異常判定手段は、各クラスタ毎に前記射影手段によって射影された特徴データが正常サンプルの分布範囲内か否かを判定して、前記特徴データが全てのクラスタにおいて異常と判定された場合にのみ当該特徴データを異常と判定する点にも特徴がある。
また、前記した異常検出装置において、更に、前記特徴データを複数のクラスタに分ける特徴データクラスタ分割手段を備え、前記学習手段は分割された各クラスタ毎に前記正常部分空間、前記方向ベクトルおよび広がり角度情報を算出し、 前記角度計算手段は、予め求められている複数の正常部分空間と前記特徴データ抽出手段により抽出された特徴データとの角度をそれぞれ計算し、前記第1の異常判定手段と前記第2の異常判定手段は各クラスタ毎に正常か否かを判定し、判定結果が全てのクラスタにおいて異常と判定された場合にのみ当該特徴データを異常と判定する点にも特徴がある。
The abnormality detecting apparatus further includes a cluster dividing unit that divides the distribution of the projected feature data in the normal space into a plurality of clusters, and the learning unit includes the normal part for each divided cluster. The distribution range information of normal samples in space is calculated, and the second abnormality determination means determines whether the feature data projected by the projection means for each cluster is within the distribution range of normal samples, Another feature is that the feature data is determined to be abnormal only when the feature data is determined to be abnormal in all clusters.
The abnormality detection apparatus further includes a feature data cluster dividing unit that divides the feature data into a plurality of clusters, and the learning unit includes the normal subspace, the direction vector, and the spread angle for each divided cluster. The angle calculation means calculates angles between the plurality of normal subspaces obtained in advance and the feature data extracted by the feature data extraction means, and the first abnormality determination means and the The second abnormality determination means is characterized in that it determines whether or not each cluster is normal and determines that the feature data is abnormal only when the determination result is determined to be abnormal in all clusters.

本発明の異常検出方法は、入力されたデータから特徴データを抽出するステップ、予め求められている正常部分空間と、前記特徴データ抽出手段により抽出された特徴データとの角度を計算するステップ、前記角度が所定値よりも大きい場合に異常と判定する第1の異常判定ステップ、前記第1の異常判定ステップにおいて異常と判定されなかった特徴データを前記正常部分空間へ射影するステップ、予め求められている、正常部分空間内における正常サンプルの分布範囲情報に基づき、前記射影された特徴データが正常サンプルの分布範囲内か否かを判定する第2の異常判定ステップを備えたことを主要な特徴とする。   The abnormality detection method of the present invention includes a step of extracting feature data from input data, a step of calculating an angle between a normal subspace obtained in advance and the feature data extracted by the feature data extraction unit, A first abnormality determination step for determining an abnormality when the angle is larger than a predetermined value; a step for projecting feature data that has not been determined to be abnormal in the first abnormality determination step to the normal subspace; And a second abnormality determination step for determining whether the projected feature data is within the distribution range of the normal sample based on the distribution range information of the normal sample in the normal subspace. To do.

本発明によれば、以下のような効果がある。
(1)従来異常であるのに正常と判定されていた事象についても異常の判定が可能となり、異常判定の精度が向上する。
(2)特徴抽出や異常判定のための計算量が少なく、計算量は対象人数に依らず一定であり、実時間処理が可能である。
(3)さまざまな監視対象に対応して、特徴ベクトルとしてはCHLACデータに限らず任意のものを採用可能である。
(4)CHLACを採用し角度で異常判定を行う場合には、対象のスケールにロバストに異常を検出できる。
(5)異常検出に限らず一般の認識課題(顔、人認識など)における認識手段としても適用可能である。
The present invention has the following effects.
(1) It is possible to determine an abnormality even for an event that has been determined to be normal even though it is abnormal in the past, and the accuracy of the abnormality determination is improved.
(2) The amount of calculation for feature extraction and abnormality determination is small, the amount of calculation is constant regardless of the number of subjects, and real-time processing is possible.
(3) Corresponding to various monitoring targets, the feature vector is not limited to CHLAC data, and any feature vector can be adopted.
(4) When CHLAC is employed and abnormality determination is performed by angle, abnormality can be detected robustly on the target scale.
(5) The present invention can be applied not only to abnormality detection but also as a recognition means in general recognition tasks (face recognition, human recognition, etc.)

まず、本発明の実施例としては一例としてCHLACデータを用いた異常動作の検出について開示するが、本発明は、CHLACデータに限らず、任意の被検出対象から得られた任意の多次元特徴データ(特徴ベクトル)から、異常動作に限らず、通常とは異なる異常状態、即ち発生確率の小さな事象を高い精度で検出することができるものである。   First, as an example of the present invention, the detection of abnormal operation using CHLAC data is disclosed as an example, but the present invention is not limited to CHLAC data, and any multidimensional feature data obtained from any target to be detected. From (feature vector), not only abnormal operation but also an abnormal state different from normal, that is, an event having a small occurrence probability can be detected with high accuracy.

次に、「異常」の定義であるが、異常の事象を全て列挙することができないように、異常そのものを定義することはできない。そこで本明細書においては、異常を「正常ではないもの」として定義する。正常は、例えば特徴の統計的な分布を考えた場合に分布の集中する領域であるものとすれば、統計的な分布から学習可能である。そして、その分布から大きく逸脱する動作を異常とする。   Next, although “abnormal” is defined, the abnormality itself cannot be defined so that all abnormal events cannot be listed. Therefore, in this specification, an abnormality is defined as “not normal”. If normal is a region where the distribution is concentrated when considering the statistical distribution of features, for example, it is possible to learn from the statistical distribution. Then, an operation that greatly deviates from the distribution is regarded as abnormal.

例えば、通路や道路などに設置された防犯カメラでは、歩く動作のような一般的な動作は正常動作として学習され認識されるが、挙動不審のような動作は、歩く動作のような周期運動でもなく、発現する確率の非常に低い事象であるため、異常として認識されることになる。   For example, in a security camera installed in a passage or road, general movements such as walking are learned and recognized as normal movements. However, it is an event that has a very low probability of appearing, so it is recognized as an abnormality.

異常検出の具体的な手法としては、まず、例えば立体高次局所自己相関特徴により動作特徴空間の中で正常動作特徴の部分空間を生成し、その部分空間からの角度を異常値として異常を検出する。正常動作部分空間の生成にはノルム正規化主成分分析手法を用い、例えば累積寄与率0.99の主成分ベクトルにより主成分部分空間を構成する(ステップ1)。   As a specific method of anomaly detection, first, for example, a partial space of normal motion features is generated in the motion feature space using, for example, a three-dimensional higher-order local autocorrelation feature, and an abnormality is detected using the angle from the subspace as an abnormal value To do. A norm-normalized principal component analysis method is used to generate a normal motion subspace, and a principal component subspace is configured by a principal component vector having a cumulative contribution rate of 0.99, for example (step 1).

ここで、立体高次局所自己相関特徴には、対象の切りだしが不要で画面内において加法性が成り立つという性質がある。この加法性により、正常動作部分空間を構成すると、画面内に何人の人が正常動作を行っても特徴ベクトルは正常動作部分空間の中に収まることになり、その中の一人でも異常動作を行うと、部分空間から飛び出して異常値として検出できることになる。人を個々にトラッキングし、切り出して計算する必要がないため、計算量は対象人数によらず一定となり、高速に計算可能である。   Here, the three-dimensional higher-order local autocorrelation feature has the property that object extraction is unnecessary and additiveity is established in the screen. Due to this additivity, when a normal motion subspace is configured, the feature vector will fit in the normal motion subspace no matter how many people perform normal operation on the screen, and one of them will also perform abnormal operation Then, it jumps out of the partial space and can be detected as an abnormal value. Since there is no need to track and calculate each person individually, the amount of calculation is constant regardless of the number of subjects, and can be calculated at high speed.

更に、本発明においては、正常部分空間内において正常な特徴ベクトルが1つあるいは複数の(超立体の)円錐形状の領域を合わせた領域内に分布していることを見出し、上記した正常部分空間からの角度で正常と判定された特徴ベクトルについて、この特徴ベクトルを正常部分空間内に射影したベクトルが、上記した1つあるいは複数の円錐形状領域の内の1つの内部に存在しているか否かを判定し、いずれかの円錐形状の内部に存在していれば正常、そうでなければ異常と判定する(ステップ2)。   Furthermore, in the present invention, it is found that normal feature vectors are distributed in a region obtained by combining one or a plurality of (hypersolid) conical regions in the normal subspace. Whether or not a feature vector that is determined to be normal at an angle from is projected into the normal subspace within one of the one or more cone-shaped regions. If it is present inside any one of the cone shapes, it is determined to be normal, and if not, it is determined to be abnormal (step 2).

図11は、本発明の判定方法(ステップ1)を示す説明図である。図11は、説明を簡単にするために、CHLAC特徴データ空間を3次元(実際には例えば251次元)とし、正常の部分空間を2次元(実施例では例えば累積寄与率0.99とすると3〜12次元程度)としたものであり、主成分分析によって求められた正常動作部分空間は正常動作のCHLAC特徴データを含む形で存在している。異常動作のCHLAC特徴データは、正常動作部分空間との角度θが大きくなるので、この角度θによって異常を判定する。   FIG. 11 is an explanatory diagram showing the determination method (step 1) of the present invention. In FIG. 11, to simplify the explanation, the CHLAC feature data space is three-dimensional (actually, for example, 251 dimensions), and the normal subspace is two-dimensional (in the embodiment, for example, a cumulative contribution ratio of 0.99 is 3-12. The normal motion subspace obtained by principal component analysis exists in a form including CHLAC feature data of normal motion. The CHLAC feature data of the abnormal operation has an angle θ with the normal operation partial space, and therefore, abnormality is determined based on this angle θ.

図12は、本発明の判定方法(ステップ2)を示す説明図である。図11は、説明を簡単にするために、正常動作の部分空間を2次元(図12(a))あるいは3次元(図12(b))(実施例では例えば累積寄与率0.99とすると3〜12次元程度)としたものである。2次元(図12(a))のものは、図11の正常部分空間内をより詳細に表示したものでもある。   FIG. 12 is an explanatory diagram showing the determination method (step 2) of the present invention. In FIG. 11, for the sake of simplicity, the subspace of normal operation is two-dimensional (FIG. 12 (a)) or three-dimensional (FIG. 12 (b)). About 12 dimensions). The two-dimensional (FIG. 12A) is a more detailed display of the normal subspace of FIG.

以下、2次元(a)の場合について説明すると、正常動作のCHLAC特徴データを正常部分空間へ射影し、更に正規化したベクトルは正常動作部分空間内で実際には扇の中央からの広がり角度がφである扇状(多次元では(超立体)円錐状)と単位円(多次元では単位(超)球)が交わる円弧状に分布している。そこで、正常動作を示す扇の中央方向を示す方向ベクトルγおよび扇の広がり角度を示すφを学習によって求めておき、判定すべきCHLAC特徴データzの扇形状の中央(ベクトルγ)からの角度を求め、この角度がφより大きいか否かによって異常を判定する。   In the following, the case of the two-dimensional (a) will be described. The normal operation CHLAC feature data is projected onto the normal subspace, and the normalized vector has an expansion angle from the center of the fan in the normal operation subspace. It is distributed in a circular arc shape that intersects the fan shape (φ (super solid) cone shape in multi-dimension) and unit circle (unit (hyper sphere) in multi-dimension). Therefore, the direction vector γ indicating the center direction of the fan indicating normal operation and φ indicating the fan spread angle are obtained by learning, and the angle from the center of the fan shape of the CHLAC feature data z to be determined (vector γ) is determined. The abnormality is determined by determining whether this angle is larger than φ.

正常動作を示す扇形状の分布が複数個存在する場合には、まず正常動作の特徴ベクトルに基づき、個々の扇形状の群(クラスタ)に分解してからいずれかの扇形状の領域に入っているか否かを判定する。
以下に本発明の実施例の一例としてCHLACデータを用いた異常動作の検出について説明する。
If there are multiple fan-shaped distributions indicating normal operation, first, based on the feature vector of normal operation, decompose into individual fan-shaped groups (clusters) and then enter any fan-shaped region It is determined whether or not.
Hereinafter, detection of abnormal operation using CHLAC data will be described as an example of an embodiment of the present invention.

図1は、本発明による異常検出装置の構成を示すブロック図である。ビデオカメラ10は対象となる人や装置の動画像フレームデータをリアルタイムで出力する。ビデオカメラ10はモノクロでもよいしカラーカメラであってもよい。コンピュータ11は例えば動画像を取り込むためのビデオキャプチャー回路を備えた周知のパソコン(PC)であってもよい。本発明は、パソコンなどの周知の任意のコンピュータ11に後述するプログラムを作成してインストールすることにより実現される。   FIG. 1 is a block diagram showing a configuration of an abnormality detection apparatus according to the present invention. The video camera 10 outputs moving image frame data of a target person or device in real time. The video camera 10 may be a monochrome camera or a color camera. The computer 11 may be a known personal computer (PC) provided with a video capture circuit for capturing a moving image, for example. The present invention is realized by creating and installing a program to be described later on an arbitrary known computer 11 such as a personal computer.

モニタ装置12はコンピュータ11の周知の出力装置であり、例えば異常動作が検出されたことをオペレータに表示するために使用される。キーボード13およびマウス14は、オペレータが入力に使用する周知の入力装置である。なお、実施例においては、例えばビデオカメラ10から入力された動画像データを実時間で処理してもよいし、一旦動画像ファイルに保存してから順次読み出して処理してもよい。   The monitor device 12 is a well-known output device of the computer 11 and is used, for example, to display to the operator that an abnormal operation has been detected. The keyboard 13 and the mouse 14 are well-known input devices used for input by the operator. In the embodiment, for example, moving image data input from the video camera 10 may be processed in real time, or may be temporarily stored after being stored in a moving image file and processed.

図2は、本発明の異常検出処理の検出時の処理内容を示すフローチャートである。S10においては、ビデオカメラ10からのフレームデータの入力が完了するまで待ち、フレームデータを入力(メモリに読み込む)する。このときの画像データは例えば256階調のグレイスケールデータである。S11においては、入力されたフレームデータから後述する方法によって特徴ベクトルを生成する。特徴ベクトルは例えば後述する251次元のCHLAC特徴データであってもよい。S12においては、特徴ベクトルについてベクトルノルムによる正規化を行う。即ち、特徴ベクトルをベクトルノルム(ベクトルの長さ)で除算する。   FIG. 2 is a flowchart showing the processing contents at the time of detection of the abnormality detection processing of the present invention. In S10, it waits until the input of the frame data from the video camera 10 is completed, and the frame data is input (read into the memory). The image data at this time is, for example, 256 gray scale data. In S11, a feature vector is generated from the input frame data by a method described later. The feature vector may be, for example, 251 dimensional CHLAC feature data described later. In S12, the feature vector is normalized by a vector norm. That is, the feature vector is divided by the vector norm (vector length).

S13においては、正常部分空間との角度θを算出する。正常部分空間は予め後述する学習処理によって求めておく。正常部分空間における直交基底ベクトルをPとすると、正常部分空間と直交する補空間への射影子P⊥は数式1で表され、部分空間への角度θの正弦は数式2で表される。xは特徴ベクトルである。   In S13, an angle θ with the normal subspace is calculated. The normal subspace is obtained in advance by a learning process described later. When the orthogonal basis vector in the normal subspace is P, the projector P⊥ to the complementary space orthogonal to the normal subspace is expressed by Equation 1, and the sine of the angle θ to the subspace is expressed by Equation 2. x is a feature vector.

Figure 2008191754
Figure 2008191754

Figure 2008191754
Figure 2008191754

従って、θの正弦の2乗は下記の数式3の式を用いて算出できる。yはS12においてベクトルノルムにより正規化された特徴ベクトルである。   Accordingly, the square of the sine of θ can be calculated using the following formula 3. y is the feature vector normalized by the vector norm in S12.

Figure 2008191754
Figure 2008191754

S14においては、算出された角度θが異常判定の角度閾値未満か否かが判定され、判定結果が否定の場合にはS15に移行するが、肯定の場合にはS23に移行する。閾値は学習時に決定する。以上が判定の第1ステップであり、S15以降が第2ステップである。   In S14, it is determined whether or not the calculated angle θ is less than the angle threshold for abnormality determination. If the determination result is negative, the process proceeds to S15, but if the determination is affirmative, the process proceeds to S23. The threshold is determined during learning. The above is the first step of determination, and the steps after S15 are the second step.

S15においては、まず、特徴ベクトルの正常部分空間への射影を行う。部分空間における直交ベクトルをPとすると、射影されたベクトルz’は数式4によって求められる。   In S15, first, the feature vector is projected onto the normal subspace. If the orthogonal vector in the subspace is P, the projected vector z ′ is obtained by Equation 4.

Figure 2008191754
Figure 2008191754

S16においては、射影されたベクトルz’が(超)球面上で等方的な分布を成すように各要素のスケールを調整する。Λを後述の学習処理における主成分分析の固有値対角行列とするとスケーリング処理後のベクトルz”は数式5によって表される。   In S16, the scale of each element is adjusted so that the projected vector z 'has an isotropic distribution on the (hyper) spherical surface. If Λ is an eigenvalue diagonal matrix of principal component analysis in the learning process described later, the vector z ″ after the scaling process is expressed by Equation 5.

Figure 2008191754
Figure 2008191754

S17においては、ベクトルノルムによる正規化を行う。正規化後のベクトルzは数式6によって求められる。   In S17, normalization by a vector norm is performed. The normalized vector z is obtained by Equation 6.

Figure 2008191754
Figure 2008191754

S18においては、未処理のクラスタを選択する。クラスタの数および各クラスタの方向ベクトルγ、広がりを示すφは予め後述する学習処理によって求められている。S19においては、数式7に示すような、特徴ベクトルzと方向ベクトルγとの角度ψを算出する。   In S18, an unprocessed cluster is selected. The number of clusters, the direction vector γ of each cluster, and φ indicating the spread are obtained in advance by a learning process described later. In S19, an angle ψ between the feature vector z and the direction vector γ as shown in Equation 7 is calculated.

Figure 2008191754
Figure 2008191754

S20においては、求めた角度ψが当該クラスタにおける異常判定の閾値であるφ未満か否かが判定され、判定結果が否定の場合にはS21に移行するが、肯定の場合にはS22に移行する。S21においては、全クラスタについて判定処理が終了したか否かが判定され、判定結果が否定の場合にはS18に移行するが、肯定の場合にはS23に移行する。   In S20, it is determined whether or not the obtained angle ψ is less than φ, which is an abnormality determination threshold in the cluster. If the determination result is negative, the process proceeds to S21, but if the determination is affirmative, the process proceeds to S22. . In S21, it is determined whether or not the determination process has been completed for all clusters. If the determination result is negative, the process proceeds to S18, but if the determination is affirmative, the process proceeds to S23.

S22においては、「正常」を出力し、S23においては、「異常」を出力する。S24においては、処理の終了が指示されたか否かが判定され、判定結果が否定の場合にはS10に移行して処理を繰り返す。以上のような2ステップの処理によって精度が高く、かつ処理負荷が小さい異常判定が可能となる。   In S22, “normal” is output, and in S23, “abnormal” is output. In S24, it is determined whether or not the end of the process is instructed. If the determination result is negative, the process proceeds to S10 and the process is repeated. By the above two-step processing, it is possible to perform abnormality determination with high accuracy and low processing load.

図3は、本発明の異常検出処理の学習時の処理内容を示すフローチャートである。この処理は図2の検出処理に先立って実行しておく。S30においては、動作学習用のサンプルフレームデータを入力する。S31においては、S11と同様に特徴ベクトルを生成する。S32においては、S12と同様にベクトルノルムによる正規化を行う。   FIG. 3 is a flowchart showing the processing contents during learning of the abnormality detection processing of the present invention. This process is executed prior to the detection process of FIG. In S30, sample frame data for motion learning is input. In S31, a feature vector is generated as in S11. In S32, normalization by a vector norm is performed as in S12.

S33においては、主成分分析により正常動作の部分空間を算出し、固有ベクトル、固有値、異常指標の閾値を出力する。閾値としては例えば、正常空間への角度を全学習サンプルに対して算出し、その平均のn倍(nは任意の実数)あるいは最大値を閾値とする。主成分分析手法自体は周知であるので概略を説明する。まず、正常動作の部分空間を構成するために、CHLAC特徴データ群から主成分分析により主成分ベクトルを求める。M次元のCHLAC特徴ベクトルxを以下のように表す。   In S33, a subspace of normal operation is calculated by principal component analysis, and eigenvectors, eigenvalues, and abnormal index threshold values are output. As the threshold value, for example, the angle to the normal space is calculated for all the learning samples, and the average of n times (n is an arbitrary real number) or the maximum value is set as the threshold value. Since the principal component analysis method itself is well known, an outline will be described. First, in order to construct a normal operation subspace, principal component vectors are obtained from the CHLAC feature data group by principal component analysis. The M-dimensional CHLAC feature vector x is expressed as follows.

Figure 2008191754
Figure 2008191754

なお、M=251である。また、主成分ベクトルを列に並べた行列U(固有ベクトル)を以下のように表す。   Note that M = 251. A matrix U (eigenvector) in which principal component vectors are arranged in columns is expressed as follows.

Figure 2008191754
Figure 2008191754

なお、M=251である。主成分ベクトルを列に並べた行列Uは、以下のように求める。共分散行列Rを次式に示す。   Note that M = 251. The matrix U in which the principal component vectors are arranged in columns is obtained as follows. The covariance matrix R is shown in the following equation.

Figure 2008191754
Figure 2008191754

行列Uはこの共分散行列Rを用いて、次の式11の固有値問題より求まる。   The matrix U is obtained from the eigenvalue problem of the following equation 11 using this covariance matrix R.

Figure 2008191754
Figure 2008191754

固有値の対角行列Λを次式12で表すと、

Figure 2008191754
The diagonal matrix Λ of eigenvalues is expressed by the following equation 12,
Figure 2008191754

第K固有値までの累積寄与率αK は、以下の式13ように表される。 The cumulative contribution rate αK up to the Kth eigenvalue is expressed by the following Expression 13.

Figure 2008191754
Figure 2008191754

ここで、累積寄与率αKが所定値(例えばαK=0.99)となる次元までの固有ベクトルu1,...,uK により張られる空間を、正常動作の部分空間として適用する。なお、累積寄与率αKの最適値は監視対象や検出精度にも依存するものと考えられるので実験等により決定する。以上の計算を行うことにより、正常動作の部分空間が生成される。   Here, the space spanned by the eigenvectors u1,..., UK up to a dimension where the cumulative contribution rate αK becomes a predetermined value (for example, αK = 0.99) is applied as a subspace of normal operation. Note that the optimum value of the cumulative contribution rate αK is determined by an experiment or the like because it is considered to depend on the monitoring target and detection accuracy. By performing the above calculations, a partial space for normal operation is generated.

S34においては、S15と同様に、サンプルデータの特徴ベクトルを部分空間へ射影する。S35においては、S16と同様に、スケールを調整する。S36においては、S17と同様に、ベクトルノルムによる正規化を行う。S37においては、射影された特徴ベクトルをMean Shift法によりクラスタリングする。   In S34, similar to S15, the feature vector of the sample data is projected onto the partial space. In S35, the scale is adjusted as in S16. In S36, normalization by a vector norm is performed as in S17. In S37, the projected feature vectors are clustered by the Mean Shift method.

図6は、S37のクラスタリング処理の内容を示すフローチャートである。発明者らは公知であるvon Mises-Fisher分布(球面上の正規分布)を用いたMean Shift法を発明した。以下これを説明する。S70においては、未処理のサンプル点を1つ選択して参照点ξの初期値とする。S71においては、数式14に示す更新式に基づいて参照点ξの更新処理を行う。κはvon Mises-Fisher分布における集中度を表すパラメータであり、実験により設定する。   FIG. 6 is a flowchart showing the contents of the clustering process in S37. The inventors invented the Mean Shift method using the well-known von Mises-Fisher distribution (normal distribution on a spherical surface). This will be described below. In S70, one unprocessed sample point is selected as the initial value of the reference point ξ. In S71, the reference point ξ is updated based on the update formula shown in Formula 14. κ is a parameter representing the degree of concentration in the von Mises-Fisher distribution, and is set by experiment.

Figure 2008191754
Figure 2008191754

S72においては、ξに変化が無くなったか否か、即ち更新後のξと更新前のξとの差の絶対値が所定値以下か否かが判定され、判定結果が否定の場合にはS71に移行するが、肯定の場合にはS73に移行する。S73においては、全てのサンプル点について処理が完了したか否かが判定され、判定結果が否定の場合にはS70に移行するが、肯定の場合にはS74に移行する。以上の処理により、各サンプル点と対応する参照点ξが求まる。S74においては、近い位置にある点を統合する。即ち、参照点ξ相互の差が所定値以下である参照点を持つサンプルの集合を1つのクラスタと見なす。   In S72, it is determined whether or not ξ has changed, that is, whether or not the absolute value of the difference between ξ after the update and ξ before the update is equal to or smaller than a predetermined value. If yes, the process proceeds to S73. In S73, it is determined whether or not processing has been completed for all sample points. If the determination result is negative, the process proceeds to S70, but if the determination is affirmative, the process proceeds to S74. Through the above processing, the reference point ξ corresponding to each sample point is obtained. In S74, the points at close positions are integrated. That is, a set of samples having reference points whose difference between reference points ξ is equal to or less than a predetermined value is regarded as one cluster.

図3に戻って、S38においては、未処理のクラスタを1つ選択する。S39においては、1-class SVM(1-class Support Vector Machine)法により、方向ベクトルおよび閾値を求める。   Returning to FIG. 3, in S38, one unprocessed cluster is selected. In S39, a direction vector and a threshold value are obtained by a 1-class SVM (1-class Support Vector Machine) method.

図7は、S39の方向ベクトル算出処理の内容を示すフローチャートである。1-class SVM法自体は周知であるので概略を説明する。図12(b)において、方向ベクトルγおよび広がり角度φで規定される(超)球面上の円は(超)球と(超)平面の交線として表現できる。従って、サンプルの射影点(ノルム1に正規化されている)と原点とを分離し、かつ原点からの距離が最大の(超)平面を求めれば、この超平面への法線ベクトルおよびこの(超)平面の原点からの距離から、方向ベクトルγ、角度の範囲φが求まる。即ち、これは1-class SVMの問題と等価になり、以下の数式15に示す1-class SVMの問題を解けばよいことになる。数式15は1-class SVMの問題において、最終的に解くべき2次計画問題である。   FIG. 7 is a flowchart showing the contents of the direction vector calculation process in S39. Since the 1-class SVM method itself is well known, an outline will be described. In FIG. 12B, the circle on the (hyper) spherical surface defined by the direction vector γ and the spread angle φ can be expressed as an intersection of the (hyper) sphere and the (hyper) plane. Therefore, if the projection point of the sample (normalized to norm 1) and the origin are separated and the (hyper) plane having the maximum distance from the origin is obtained, the normal vector to this hyperplane and this ( From the distance from the origin of the hyper) plane, the direction vector γ and the angle range φ are obtained. That is, this is equivalent to the problem of 1-class SVM, and the problem of 1-class SVM expressed by the following formula 15 can be solved. Equation 15 is a quadratic programming problem to be finally solved in the problem of 1-class SVM.

Figure 2008191754
Figure 2008191754

なお、νはユーザが指定するパラメータであり、例えばν=0.01であってもよい。上記問題は具体的には以下のようにして解く。S80においては、変数t=1とし、またαを数式16の条件を満足する範囲でランダムに初期化する。   Note that ν is a parameter designated by the user, and may be, for example, ν = 0.01. Specifically, the above problem is solved as follows. In S80, a variable t = 1 is set, and α is initialized at random within a range satisfying the condition of Expression 16.

Figure 2008191754
Figure 2008191754

S81においては、数式17に示すように、予備変数O、SV、ρを計算する。   In S81, reserve variables O, SV, and ρ are calculated as shown in Equation 17.

Figure 2008191754
Figure 2008191754

S82においては、数式18の条件を満たすi∈SVを選択する。   In S82, iεSV satisfying the condition of Expression 18 is selected.

Figure 2008191754
Figure 2008191754

S83においては、iはあったか否かが判定され、判定結果が否定の場合にはS84に移行するが、肯定の場合にはS86に移行する。S84においては、数式18の条件を満たすi∈1,..,Nを求める。S85においては、iはあったか否かが判定され、判定結果が否定の場合には処理を終了するが、肯定の場合にはS86に移行する。S86においては、下記の数式19に基づいてjを求める。S87においては、下記の数式20に基づいてαを更新する。   In S83, it is determined whether or not i is present. If the determination result is negative, the process proceeds to S84, but if the determination is affirmative, the process proceeds to S86. In S84, i∈1,..., N satisfying the condition of Expression 18 is obtained. In S85, it is determined whether or not i is present. If the determination result is negative, the process ends. If the determination is affirmative, the process proceeds to S86. In S86, j is obtained based on the following Equation 19. In S87, α is updated based on Equation 20 below.

Figure 2008191754
Figure 2008191754

Figure 2008191754
Figure 2008191754

S88においては、αは数式21に示す条件を満足しているか否かが判定され、判定結果が否定の場合にはS89に移行するが、肯定の場合にはS90に移行する。   In S88, it is determined whether or not α satisfies the condition shown in Expression 21. If the determination result is negative, the process proceeds to S89, but if the determination result is affirmative, the process proceeds to S90.

Figure 2008191754
Figure 2008191754

S89においては、所定の範囲[0,1/νN]内に入るようにαjを射影する。即ち、もしα>1/νNであれば、α=1/νNとし、もしα<0ならば、α=0として、最も近い範囲内の点(端点)に移動する。そして、αiを再計算する。S90においては、t=t+1としてS81に移行する。
以上の処理によって求められたα、ρを用いて超平面の法線ベクトルγおよびφは以下の数式22によって求まる。
In S89, αj is projected so as to fall within a predetermined range [0, 1 / νN]. That is, if α> 1 / νN, α = 1 / νN, and if α <0, α = 0 and move to the nearest point (end point). Then, αi is recalculated. In S90, t = t + 1 and the process proceeds to S81.
The normal vectors γ and φ of the hyperplane are obtained by the following Expression 22 using α and ρ obtained by the above processing.

Figure 2008191754
Figure 2008191754

なお、コンピュータで(凸)2次計画問題を解くためには、例えばサイバネットシステム株式会社が販売している科学計算用ソフトウェアMATLAB(登録商標)システムのOptimization Toolboxのquadprog関数を使用することができる。また、凸2次計画問題のアルゴリズムについては例えば下記の非特許文献1、2に記載されている。
Coleman, T.F. and Y. Li, OA Reflective Newton Method for Minimizing a Quadratic Function Subject to Bounds on some of the Variables,O SIAM Journal on Optimization, Vol. 6, Number 4, pp.1040-1058, 1996. Gill, P. E. and W. Murray, and M.H. Wright, Practical Optimization, Academic Press, London, UK,1981.
In order to solve the (convex) quadratic programming problem by a computer, for example, the quadprog function of Optimization Toolbox of the scientific calculation software MATLAB (registered trademark) system sold by Cybernet System Co., Ltd. can be used. Further, the algorithm of the convex quadratic programming problem is described in Non-Patent Documents 1 and 2 below, for example.
Coleman, TF and Y. Li, OA Reflective Newton Method for Minimizing a Quadratic Function Subject to Bounds on some of the Variables, O SIAM Journal on Optimization, Vol. 6, Number 4, pp. 1040-1058, 1996. Gill, PE and W. Murray, and MH Wright, Practical Optimization, Academic Press, London, UK, 1981.

図3に戻って、S40においては、全クラスタについて処理が完了したか否かが判定され、判定結果が否定の場合にはS38に移行するが、肯定の場合には処理を終了する。   Returning to FIG. 3, in S <b> 40, it is determined whether or not the processing has been completed for all clusters. If the determination result is negative, the process proceeds to S <b> 38, but if the determination is positive, the process ends.

図4は、角度判定処理の内容を示すフローチャートである。この処理はS11〜S14に相当する。S50においては、差分データを生成し、2値化する。S50においては、動画像データに対して「動き」の情報を検出し、背景など静止しているものを除去する目的で差分データを生成する。差分の取り方としては、隣接するフレーム間の同じ位置の画素の輝度の変化を抽出するフレーム間差分方式を採用するが、フレーム内における輝度の変化部分を抽出するエッジ差分、あるいは両方を採用してもよい。   FIG. 4 is a flowchart showing the contents of the angle determination process. This process corresponds to S11 to S14. In S50, difference data is generated and binarized. In S50, "motion" information is detected for the moving image data, and difference data is generated for the purpose of removing stationary objects such as the background. As a method of taking the difference, an inter-frame difference method that extracts a change in luminance of a pixel at the same position between adjacent frames is adopted, but an edge difference that extracts a luminance change portion in a frame or both are adopted. May be.

更に、「動き」に無関係な色情報やノイズを除去するために自動閾値選定による2値化を行う。2値化の方法としては、例えば一定閾値、下記非特許文献3に開示されている判別最小二乗自動閾値法、閾値0及びノイズ処理方式(濃淡画像において差が0以外を全て動き有り=1とし、公知のノイズ除去法によってノイズを除去する方法)を採用可能である。以上の前処理により入力動画データは画素値に「動いた(1)」「動かない(0)」の論理値をもつフレームデータの列となる。
大津展之、“判別および最小2乗規準に基づく自動しきい値選定法”電子通信学会論文誌D、J63-D-4、P349-356、1980年。
Further, binarization is performed by automatic threshold selection to remove color information and noise unrelated to “movement”. As a binarization method, for example, a fixed threshold, a discriminative least square automatic threshold method disclosed in Non-Patent Document 3 below, threshold 0 and a noise processing method (all differences except for 0 in a grayscale image are set to have motion = 1). A method of removing noise by a known noise removing method can be employed. By the above preprocessing, the input moving image data becomes a string of frame data having logical values of “moved (1)” and “not moved (0)” as pixel values.
Noriyuki Otsu, “Automatic threshold selection method based on discriminant and least-squares criteria” IEICE Transactions D, J63-D-4, P349-356, 1980.

S51においては、1フレーム分の画素データに関する相関パターンカウント処理を行い、フレームCHLACデータを生成する。詳細については図5を用いて後述するが、251次元の特徴ベクトルデータが生成される。時系列の二値差分データからの動作特徴の抽出には、立体高次局所自己相関(CHLAC) 特徴を用いる。N次自己相関関数は次の式1のようになる。   In S51, a correlation pattern count process for pixel data for one frame is performed to generate frame CHLAC data. Although details will be described later with reference to FIG. 5, 251-dimensional feature vector data is generated. For extraction of motion features from time-series binary difference data, cubic higher-order local autocorrelation (CHLAC) features are used. The Nth-order autocorrelation function is expressed by the following equation 1.

Figure 2008191754
Figure 2008191754

ここで、f は時系列画素値(差分値)であり、参照点(注目画素)rおよび参照点からみたN個の変位ai (i = 1,...,N) は差分フレーム内の二次元座標に時間も成分として持つ三次元のベクトルである。更に、時間方向の積分範囲はどの程度の時間方向の相関を取るかのパラメータである。但し、S51におけるフレームCHLACデータは1フレーム毎のデータであり、これを時間方向に所定期間だけ積分(加算)したものがCHLAC特徴データとなる。   Here, f is a time-series pixel value (difference value), and N displacements ai (i = 1,..., N) viewed from the reference point (target pixel) r and the reference point are two in the difference frame. It is a three-dimensional vector with time as a component in dimensional coordinates. Further, the integration range in the time direction is a parameter indicating how much correlation in the time direction is taken. However, the frame CHLAC data in S51 is data for each frame, and the data obtained by integrating (adding) this for a predetermined period in the time direction is CHLAC feature data.

変位方向、次数のとり方により高次自己相関関数は無数に考えられるが、これを局所領域に限定したものが高次局所自己相関関数である。立体高次局所自己相関特徴では変位方向を参照点rを中心とする3×3×3画素の局所領域内、即ち参照点rの26近傍に限定している。特徴量の計算は1組の変位方向に対して式1の積分値が1つの特徴量になる。従って変位方向の組み合わせ(=マスクパターン)の数だけ特徴量が生成される。   There are an infinite number of higher-order autocorrelation functions depending on the direction of displacement and the order, but the higher-order local autocorrelation function is limited to a local region. In the three-dimensional high-order local autocorrelation feature, the displacement direction is limited to a 3 × 3 × 3 pixel local area centered on the reference point r, that is, in the vicinity of 26 of the reference point r. In the calculation of the feature amount, the integral value of Expression 1 becomes one feature amount for one set of displacement directions. Therefore, feature amounts are generated as many as the number of combinations of displacement directions (= mask patterns).

特徴量の数、つまり特徴ベクトルの次元はマスクパターンの種類に相当する。2値画像の場合、画素値1を何回乗算しても1であるので、二乗以上の項は乗数のみが異なる1乗の項と重複するものとして削除する。また式12の積分操作(平行移動:スキャン)で重複するパターンは1つの代表パターンを残して他を削除する。式1右辺の式は参照点(f(r):局所領域の中心)を必ず含むので、代表パターンとしては中心点を含み、パターン全体が3×3×3画素の局所領域内に収まるものを選択する。   The number of feature amounts, that is, the dimension of the feature vector corresponds to the type of mask pattern. In the case of a binary image, since the pixel value 1 is multiplied by 1 regardless of how many times it is, a term of square or higher is deleted as an overlapping term of a square with a different multiplier only. In addition, patterns that overlap in the integration operation (parallel movement: scan) of Equation 12 are deleted while leaving one representative pattern. Since the expression on the right side of Expression 1 always includes a reference point (f (r): the center of the local area), the representative pattern includes the center point, and the entire pattern fits within the local area of 3 × 3 × 3 pixels. select.

この結果、中心点を含むマスクパターンの種類は、選択画素数が1個のもの:1個、2個のもの:26個、3個のもの:26×25/2=325個の計352個あるが、式1の積分操作(平行移動:スキャン)で重複するパターンを除くと、マスクパターンの種類は251種類となる。即ち、1つの3次元データに対する立体高次局所自己相関特徴ベクトルは251次元となる。   As a result, the number of types of mask patterns including the center point is 352 with a total number of selected pixels of one: one, two: 26, three: 26 × 25/2 = 325. However, there are 251 types of mask patterns except for overlapping patterns in the integration operation (parallel movement: scan) of Equation 1. That is, the three-dimensional higher-order local autocorrelation feature vector for one three-dimensional data is 251 dimensions.

なお、画素の値が多値の濃淡画像の場合には、例えば画素値をaとすると、相関値はa(0次)≠a×a(1次)≠a×a×a(2次)となり、選択画素が同じでも乗数の異なるものを重複削除できない。従って、多値の場合には、2値の場合より選択画素数が1の場合に2個、選択画素数が2の場合に26個増加し、マスクパターンの種類は計279種類となる。   When the pixel value is a multi-value gray image, for example, when the pixel value is a, the correlation value is a (0th order) ≠ a × a (primary) ≠ a × a × a (secondary). Thus, even if the selected pixels are the same, those having different multipliers cannot be redundantly deleted. Therefore, in the case of multi-value, the number is 2 when the number of selected pixels is 1 and 26 when the number of selected pixels is 2, and the number of mask patterns is 279 in total.

立体高次局所自己相関特徴の性質としては、変位方向を局所領域に限定しているためにデータに対する加法性があり、画面全体を通して積分しているためにデータ内の位置不変性がある。   The nature of the cubic higher-order local autocorrelation feature is additive to the data because the displacement direction is limited to the local region, and position invariance in the data because it is integrated throughout the entire screen.

S52においては、フレームCHLACデータをフレーム対応に保存する。S53においては、現在のCHLACデータにS51で求めた最新のフレームCHLACデータを加算すると共に、所定期間以上古いフレームに対応するフレームCHLACデータを現在のCHLACデータから減算して新たなCHLACデータを生成し、保存する。   In S52, the frame CHLAC data is stored in correspondence with the frame. In S53, the latest frame CHLAC data obtained in S51 is added to the current CHLAC data, and new CHLAC data is generated by subtracting the frame CHLAC data corresponding to the frame older than a predetermined period from the current CHLAC data. ,save.

図10は、本発明による動画像の実時間処理の内容を示す説明図である。動画像のデータはフレームのシーケンスとなっている。そこで時間方向に一定幅の時間窓を設定し、窓内のフレーム集合を1つの3次元データとする。そして、新たなフレームが入力される度に時間窓を移動させ、古いフレームを削除することで有限な3次元データが得られる。この時間窓の長さは、認識しようとする動作の1周期と等しいか、より長く設定することが望ましい。   FIG. 10 is an explanatory diagram showing the contents of real-time processing of a moving image according to the present invention. The moving image data is a sequence of frames. Therefore, a time window having a certain width is set in the time direction, and a frame set in the window is set as one three-dimensional data. Each time a new frame is input, the time window is moved, and the old frame is deleted to obtain finite three-dimensional data. The length of this time window is desirably set equal to or longer than one cycle of the operation to be recognized.

なお、実際には画像フレームデータは差分を取るために1フレームのみ保存され、フレームと対応するフレームCHLACデータが時間窓分だけ保存される。即ち、図10において時刻tに新たなフレームが入力された時点では、直前の時間窓(t-1,t-n-1)に対応するフレームCHLACデータはすでに算出されている。但し、フレームCHLACデータを計算するためには直近の3つの差分フレームが必要であるが、(t-1)フレームは端なのでフレームCHLACデータは(t-2)フレームに対応するものまで算出されている。   Actually, only one frame is stored in order to obtain the difference in the image frame data, and the frame CHLAC data corresponding to the frame is stored for the time window. That is, when a new frame is input at time t in FIG. 10, the frame CHLAC data corresponding to the immediately preceding time window (t−1, t−n−1) has already been calculated. However, in order to calculate the frame CHLAC data, the last three difference frames are required, but since the (t-1) frame is the end, the frame CHLAC data is calculated up to the one corresponding to the (t-2) frame. Yes.

そこで、新たに入力されたtフレームを用いて(t-1)フレームに対応するフレームCHLACデータを生成してCHLACデータに加算する。また、最も古い(t-n-1)フレームと対応するフレームCHLACデータをCHLACデータから減算する。このような処理により、時間窓と対応するCHLAC特徴データが更新される。   Therefore, using the newly input t frame, frame CHLAC data corresponding to the (t−1) frame is generated and added to the CHLAC data. Also, the frame CHLAC data corresponding to the oldest (t-n-1) frame is subtracted from the CHLAC data. Through such processing, the CHLAC feature data corresponding to the time window is updated.

S54(=S12)においては、ベクトルノルムによる正規化を行う。S55(=S13)においては、前述したように、数式3に示す式を用いてS53にて求めたCHLACデータと部分空間との角度θを求める。
S56(=S14)においては、θが閾値よりも大きいか否かが判定され、判定結果が否定の場合には図2のS15に移行するが、肯定の場合には図2のS23に移行する。
In S54 (= S12), normalization by a vector norm is performed. In S55 (= S13), as described above, the angle θ between the CHLAC data obtained in S53 and the partial space is obtained using the equation shown in Equation 3.
In S56 (= S14), it is determined whether or not θ is larger than the threshold value. If the determination result is negative, the process proceeds to S15 in FIG. 2, but if the determination result is affirmative, the process proceeds to S23 in FIG. .

図5は、S51の立体高次局所自己相関特徴抽出処理の内容を示すフローチャートである。S60においては、相関パターンカウンタをクリアする。S60においては、251個の相関パターンカウンタをクリアする。S61においては、未処理の画素を1つ選択する(フレーム内で注目画素を順にスキャンする)。S62においては、未処理のマスクパターンを1つ選択する。   FIG. 5 is a flowchart showing the contents of the three-dimensional higher-order local autocorrelation feature extraction process in S51. In S60, the correlation pattern counter is cleared. In S60, 251 correlation pattern counters are cleared. In S61, one unprocessed pixel is selected (the pixel of interest is scanned in sequence within the frame). In S62, one unprocessed mask pattern is selected.

図8は、3次元画素空間における自己相関処理座標を示す説明図である。図8においては、t−1フレーム、tフレーム、t+1フレームの時間的に隣接する3つの差分フレームのxy平面を並べて図示してある。本発明においては、注目する参照画素を中心とする3×3×3(=27)画素の立方体の内部の画素について相関を取る。   FIG. 8 is an explanatory diagram showing autocorrelation processing coordinates in a three-dimensional pixel space. In FIG. 8, the xy planes of three difference frames temporally adjacent to each of the t−1 frame, the t frame, and the t + 1 frame are shown side by side. In the present invention, correlation is performed for pixels inside a cube of 3 × 3 × 3 (= 27) pixels centered on the reference pixel of interest.

マスクパターンは、相関を取る画素の組合せを示す情報であり、マスクパターンによって選択された画素のデータは相関値の計算に使用されるが、マスクパターンによって選択されなかった画素は無視される。前記したように、マスクパターンでは注目画素(中心の画素)は必ず選択される。また、2値画像で0次〜2次までの相関値を考えた場合、3×3×3画素の立方体において重複を排除した後のパターン数は251個となる。   The mask pattern is information indicating a combination of pixels to be correlated, and the pixel data selected by the mask pattern is used for calculating the correlation value, but the pixels not selected by the mask pattern are ignored. As described above, the target pixel (center pixel) is always selected in the mask pattern. Further, when considering correlation values from the 0th order to the 2nd order in a binary image, the number of patterns after eliminating the overlap in a 3 × 3 × 3 pixel cube is 251.

図9は、自己相関マスクパターンの例を示す説明図である。図9(1)は注目画素のみの最も簡単な0次のマスクパターンである。(2)はハッチングを施した2つの画素が選択されている1次マスクパターン例、(3)、(4)はハッチングを施した3つの画素が選択されている3次マスクパターン例であり、この他に多数のパターンがある。   FIG. 9 is an explanatory diagram showing an example of an autocorrelation mask pattern. FIG. 9A shows the simplest 0th-order mask pattern of only the target pixel. (2) is a primary mask pattern example in which two hatched pixels are selected, (3) and (4) are tertiary mask pattern examples in which three hatched pixels are selected, There are many other patterns.

図5に戻って、S63においては、前記した式21を用いて相関値を計算する。式21のf(r)f(r+a1)…f(r+aN)はマスクパターンと対応する座標の差分2値化3次元データの画素値を掛け合わせる(=相関値、0または1)ことに相当する。また、式21の積分操作は注目画素をフレーム内で移動(スキャン)させて相関値をマスクパターンと対応するカウンタによって足し合わせる(1をカウントする)ことに相当する。   Returning to FIG. 5, in S63, the correlation value is calculated using the above-described equation (21). F (r) f (r + a1)... F (r + aN) in equation 21 is multiplied by the pixel value of the difference binarized three-dimensional data of coordinates corresponding to the mask pattern (= correlation value, 0 or 1). It corresponds to that. Further, the integration operation of Expression 21 corresponds to moving (scanning) the pixel of interest within the frame and adding the correlation values with a counter corresponding to the mask pattern (counting 1).

S64においては、相関値は1か否かが判定され、判定結果が肯定の場合にはS65に移行するが、否定の場合にはS66に移行する。S65においては、マスクパターンと対応する相関パターンカウンタを+1する。S66においては、全てのパターンについて処理が完了したか否かが判定され、判定結果が肯定の場合にはS67に移行するが、否定の場合にはS62に移行する。   In S64, it is determined whether or not the correlation value is 1. If the determination result is affirmative, the process proceeds to S65, but if not, the process proceeds to S66. In S65, the correlation pattern counter corresponding to the mask pattern is incremented by one. In S66, it is determined whether or not processing has been completed for all patterns. If the determination result is affirmative, the process proceeds to S67, but if not, the process proceeds to S62.

S67においては、全ての画素について処理が完了したか否かが判定され、判定結果が肯定の場合にはS68に移行するが、否定の場合にはS61に移行する。S68においては、パターンカウンタ値の集合を251次元フレームCHLACデータとして出力する。   In S67, it is determined whether or not processing has been completed for all pixels. If the determination result is affirmative, the process proceeds to S68, but if not, the process proceeds to S61. In S68, a set of pattern counter values is output as 251 dimensional frame CHLAC data.

次に、事前にクラスタリングを行い、その後に各クラスタにおいて主成分分析により部分空間を求める実施例2について説明する。実施例1においては、まず、部分空間との角度を求め(ステップ1)、これが閾値未満である場合に、特徴ベクトルを部分空間に射影すると共にクラスタリングを行い、各クラスタにおける円錐との角度により判定を行う方法を開示した。しかし、特徴ベクトルが多峰性を有している場合、ステップ1においてクラスタリングを行ってからそれぞれのクラスタにおいて角度による判定を行う方法も考えられる。   Next, a description will be given of a second embodiment in which clustering is performed in advance and then a partial space is obtained by principal component analysis in each cluster. In the first embodiment, first, an angle with the subspace is obtained (step 1). When this is less than the threshold value, the feature vector is projected onto the subspace and clustering is performed, and determination is made based on the angle with the cone in each cluster. A method of performing is disclosed. However, if the feature vector has multimodality, a method of performing determination by angle in each cluster after performing clustering in step 1 is also conceivable.

図13は、本発明の実施例2の異常検出処理の検出時の処理内容を示すフローチャートである。なお、個々の処理内容は図2に示した実施例1の各ステップの処理と実質的に同一であるので、対応のみを示す。S110〜S112においては、S10〜S12と同様の処理が行われる。   FIG. 13 is a flowchart showing the processing contents at the time of detection of the abnormality detection processing according to the second embodiment of the present invention. Since the individual processing contents are substantially the same as the processing of each step of the first embodiment shown in FIG. 2, only the correspondence is shown. In S110 to S112, the same processing as S10 to S12 is performed.

S113においては、未処理のクラスタを選択する。なお、クラスタの数および各クラスタの正常部分空間、方向ベクトルγ、広がりを示すφは予め後述する学習処理によって求められている。S114においては、S13と同様に正常部分空間との角度θを算出する。   In S113, an unprocessed cluster is selected. The number of clusters, the normal subspace of each cluster, the direction vector γ, and φ indicating the spread are obtained in advance by a learning process described later. In S114, the angle θ with the normal subspace is calculated as in S13.

S115においては、算出された角度θが異常判定の閾値未満か否かが判定され、判定結果が否定の場合にはS121に移行するが、肯定の場合にはS116に移行する。閾値は学習時に決定する。以上が判定の第1ステップであり、S116以降が第2ステップである。   In S115, it is determined whether or not the calculated angle θ is less than the abnormality determination threshold value. If the determination result is negative, the process proceeds to S121, but if the determination result is affirmative, the process proceeds to S116. The threshold is determined during learning. The above is the first step of determination, and the steps after S116 are the second step.

S116においては、S15と同様に特徴ベクトルの正常部分空間への射影を行う。S117においては、S16と同様に、射影されたベクトルz’が球面上で等方的な分布を成すように各要素のスケールを調整する。S118においては、S17と同様にベクトルノルムによる正規化を行う。S119においては、S19と同様に、数式7に示すような、特徴ベクトルzと方向ベクトルγとの角度ψを算出する。   In S116, the feature vector is projected onto the normal subspace as in S15. In S117, as in S16, the scale of each element is adjusted so that the projected vector z ′ has an isotropic distribution on the spherical surface. In S118, normalization by the vector norm is performed as in S17. In S119, as in S19, an angle ψ between the feature vector z and the direction vector γ as shown in Equation 7 is calculated.

S120においては、S20と同様に、求めた角度ψが当該クラスタにおける異常判定の閾値であるφ未満か否かが判定され、判定結果が否定の場合にはS121に移行するが、肯定の場合にはS122に移行する。S121においては、全クラスタについて判定処理が終了したか否かが判定され、判定結果が否定の場合にはS113に移行するが、肯定の場合にはS123に移行する。   In S120, as in S20, it is determined whether or not the obtained angle ψ is less than φ, which is an abnormality determination threshold in the cluster. If the determination result is negative, the process proceeds to S121. Shifts to S122. In S121, it is determined whether or not the determination process has been completed for all clusters. If the determination result is negative, the process proceeds to S113, but if the determination is affirmative, the process proceeds to S123.

S122においては、「正常」を出力し、S123においては、「異常」を出力する。S124においては、処理の終了が指示されたか否かが判定され、判定結果が否定の場合にはS110に移行して処理を繰り返す。   In S122, “normal” is output, and in S123, “abnormal” is output. In S124, it is determined whether the end of the process is instructed. If the determination result is negative, the process proceeds to S110 and the process is repeated.

図14は、本発明の実施例2の異常検出処理の学習時の処理内容を示すフローチャートである。この処理は図13の検出処理に先立って実行しておく。S130〜S132においては、S30〜S32と同様の処理が行われる。S133においては、S37と同様に特徴ベクトルをMean Shift法によりクラスタリングする。S134においては、未処理のクラスタを1つ選択する。S135においては、S33と同様に主成分分析により正常動作の部分空間を算出し、固有ベクトル、固有値、異常指標の閾値を出力する。   FIG. 14 is a flowchart showing the processing contents during learning of the abnormality detection processing according to the second embodiment of the present invention. This process is executed prior to the detection process of FIG. In S130 to S132, the same processing as S30 to S32 is performed. In S133, the feature vectors are clustered by the Mean Shift method as in S37. In S134, one unprocessed cluster is selected. In S135, as in S33, a subspace of normal operation is calculated by principal component analysis, and eigenvectors, eigenvalues, and abnormal index threshold values are output.

S136においては、S34と同様に、サンプルデータの特徴ベクトルを部分空間へ射影する。S137においては、S35と同様にスケールを調整する。S138においては、S36と同様にベクトルノルムによる正規化を行う。S139においては、1-class SVM(1-class Support Vector Machine)法により、方向ベクトルおよび閾値を求める。S140においては、全クラスタについて処理が完了したか否かが判定され、判定結果が否定の場合にはS134に移行するが、肯定の場合には処理を終了する。   In S136, similar to S34, the feature vector of the sample data is projected onto the partial space. In S137, the scale is adjusted as in S35. In S138, normalization by the vector norm is performed as in S36. In S139, a direction vector and a threshold are obtained by a 1-class SVM (1-class Support Vector Machine) method. In S140, it is determined whether or not processing has been completed for all clusters. If the determination result is negative, the process proceeds to S134, but if the determination is positive, the process ends.

実施例2においては、まずクラスタリングを行ってから、個々のクラスタ(サンプル群)毎に部分空間を求めて異常の判定を行うので、正常なサンプルデータが複数の群に分かれており、1つの部分空間としてはとらえきれない場合などには実施例1よりも正確に判定を行うことができる可能性がある。   In the second embodiment, clustering is performed first, and then a partial space is obtained for each individual cluster (sample group) to determine abnormality. Therefore, normal sample data is divided into a plurality of groups, and one partial There is a possibility that the determination can be performed more accurately than in the first embodiment when the space cannot be taken.

以上、異常動作の検出を行う実施例について説明したが、本発明には以下のような変形例も考えられる。実施例においては、学習フェーズによって予め正常動作の部分空間を生成しておく例を開示したが、正常動作の部分空間を更新しながら異常動作の検出を行うか、あるいは例えば1分、1時間あるいは1日などのフレーム間隔よりも長い所定の周期で、一部のデータを使用して正常動作の部分空間を更新し、次の更新までは固定した部分空間を使用して異常動作の検出を行ってもよい。このようにすれば処理量は更に減少する。   As described above, the embodiment for detecting the abnormal operation has been described. However, the present invention may be modified as follows. In the embodiment, an example in which a partial space for normal operation is generated in advance by the learning phase has been disclosed. However, abnormal operation is detected while updating the partial space for normal operation, or for example, 1 minute, 1 hour or Update the partial space of normal operation using a part of the data at a predetermined cycle longer than the frame interval such as one day, and detect the abnormal operation using the fixed partial space until the next update. May be. In this way, the processing amount is further reduced.

更に、リアルタイムに部分空間を更新する学習法として、下記の非特許文献4に開示されているような、主成分分析による固有値問題を解かずに、入力データから逐次近似的に固有べクトルを近似的に求める方法を採用してもよい。
Juyang Weng, Yilu Zhang and Wey-Shiuan Hwang, "Candid Covariance-Free Incremental Principal Component Analysis",IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.25, No.8, pp.1034-1040, 2003
Furthermore, as a learning method for updating the subspace in real time, the eigenvector is approximated from the input data sequentially without solving the eigenvalue problem by principal component analysis as disclosed in Non-Patent Document 4 below. Alternatively, a method for automatically obtaining may be employed.
Juyang Weng, Yilu Zhang and Wey-Shiuan Hwang, "Candid Covariance-Free Incremental Principal Component Analysis", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.25, No.8, pp.1034-1040, 2003

本発明による異常検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the abnormality detection apparatus by this invention. 本発明の異常検出処理の検出時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of the detection of the abnormality detection process of this invention. 本発明の異常検出処理の学習時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of learning of the abnormality detection process of this invention. 角度判定処理の内容を示すフローチャートである。It is a flowchart which shows the content of an angle determination process. S51の立体高次局所自己相関特徴抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the solid high-order local autocorrelation feature extraction process of S51. S37のクラスタリング処理の内容を示すフローチャートである。It is a flowchart which shows the content of the clustering process of S37. S39の法線ベクトル算出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the normal vector calculation process of S39. 3次元画素空間における自己相関処理座標を示す説明図である。It is explanatory drawing which shows the autocorrelation process coordinate in a three-dimensional pixel space. 自己相関マスクパターンの例を示す説明図である。It is explanatory drawing which shows the example of an autocorrelation mask pattern. 本発明による動画像の実時間処理の内容を示す説明図である。It is explanatory drawing which shows the content of the real-time process of the moving image by this invention. 本発明の判定方法(ステップ1)を示す説明図である。It is explanatory drawing which shows the determination method (step 1) of this invention. 本発明の判定方法(ステップ2)を示す説明図である。It is explanatory drawing which shows the determination method (step 2) of this invention. 本発明の実施例2の異常検出処理の検出時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of the detection of the abnormality detection process of Example 2 of this invention. 本発明の実施例2の異常検出処理の学習時の処理内容を示すフローチャートである。It is a flowchart which shows the processing content at the time of learning of the abnormality detection process of Example 2 of this invention.

符号の説明Explanation of symbols

10…ビデオカメラ
11…コンピュータ
12…モニタ装置
13…キーボード
14…マウス
DESCRIPTION OF SYMBOLS 10 ... Video camera 11 ... Computer 12 ... Monitor apparatus 13 ... Keyboard 14 ... Mouse

Claims (8)

入力されたデータから特徴データを抽出する特徴データ抽出手段と、
予め求められている正常部分空間と、前記特徴データ抽出手段により抽出された特徴データとの角度を計算する角度計算手段と、
前記角度が所定値よりも大きい場合に異常と判定する第1の異常判定手段と、
前記第1の異常判定手段によって異常と判定されなかった特徴データを前記正常部分空間へ射影する射影手段と、
予め求められている前記正常部分空間内における正常サンプルの分布範囲情報に基づき、前記射影手段によって射影された特徴データが正常サンプルの分布範囲内か否かを判定する第2の異常判定手段と
を備えたことを特徴とする異常検出装置。
Feature data extraction means for extracting feature data from input data;
An angle calculation means for calculating an angle between a normal subspace obtained in advance and the feature data extracted by the feature data extraction means;
First abnormality determining means for determining an abnormality when the angle is greater than a predetermined value;
Projecting means for projecting feature data that has not been determined to be abnormal by the first abnormality determining means to the normal subspace;
Second abnormality determining means for determining whether or not the feature data projected by the projecting means is within the distribution range of normal samples based on the distribution range information of normal samples in the normal subspace obtained in advance; An abnormality detection device characterized by comprising.
更に、学習用の入力データに基づき、前記特徴データ抽出手段によって抽出された複数の特徴データから主成分分析手法により得られた主成分ベクトルに基づいて前記正常部分空間を算出し、更に前記射影手段によって前記正常部分空間に射影された特徴データから正常部分空間内における正常サンプルの分布範囲情報を算出する学習手段を備えたことを特徴とする請求項1に記載の異常検出装置。   Further, based on the input data for learning, the normal subspace is calculated based on a principal component vector obtained by a principal component analysis method from a plurality of feature data extracted by the feature data extraction means, and further the projection means 2. The abnormality detection apparatus according to claim 1, further comprising learning means for calculating distribution range information of normal samples in the normal subspace from the feature data projected onto the normal subspace. 前記正常部分空間内における正常サンプルの分布範囲情報は、正常部分空間内における正常サンプルの分布範囲を包含あるいは近似する円錐の中心を示す方向ベクトル情報および前記円錐の広がりを示す角度情報であることを特徴とする請求項1に記載の異常検出装置。   The distribution range information of the normal sample in the normal subspace is direction vector information indicating the center of a cone that includes or approximates the distribution range of the normal sample in the normal subspace and angle information indicating the spread of the cone. The abnormality detection device according to claim 1, wherein 前記特徴データ抽出手段は、入力された複数の画像フレームデータからなる動画像データからフレーム間差分データを生成し、複数の前記フレーム間差分データからなる3次元データから立体高次局所自己相関によって動作特徴データを生成することを特徴とする請求項1に記載の異常検出装置。   The feature data extracting unit generates inter-frame difference data from moving image data composed of a plurality of input image frame data, and operates by three-dimensional high-order local autocorrelation from three-dimensional data composed of the plurality of inter-frame difference data The abnormality detection apparatus according to claim 1, wherein characteristic data is generated. 前記射影手段は射影後の特徴データのそれぞれの要素のスケールを正規化するスケール正規化手段を備えたことを特徴とする請求項1に記載の異常検出装置。   The abnormality detection apparatus according to claim 1, wherein the projection unit includes a scale normalization unit that normalizes a scale of each element of the feature data after the projection. 更に、前記射影された特徴データの前記正常空間内の分布を複数のクラスタに分けるクラスタ分割手段を備え、
前記学習手段は分割された各クラスタ毎に前記正常部分空間内における正常サンプルの分布範囲情報を算出し、
第2の異常判定手段は、各クラスタ毎に前記射影手段によって射影された特徴データが正常サンプルの分布範囲内か否かを判定して、前記特徴データが全てのクラスタにおいて異常と判定された場合にのみ当該特徴データを異常と判定することを特徴とする請求項1に記載の異常検出装置。
Furthermore, a cluster dividing means for dividing the distribution of the projected feature data in the normal space into a plurality of clusters,
The learning means calculates distribution range information of normal samples in the normal subspace for each divided cluster,
The second abnormality determining means determines whether or not the feature data projected by the projecting means for each cluster is within the distribution range of normal samples, and the feature data is determined to be abnormal in all clusters The abnormality detection apparatus according to claim 1, wherein the characteristic data is determined to be abnormal only in the case.
更に、前記特徴データを複数のクラスタに分ける特徴データクラスタ分割手段を備え、
前記学習手段は分割された各クラスタ毎に前記正常部分空間および前記正常部分空間内における正常サンプルの分布範囲情報を算出し、
前記角度計算手段は、予め求められている複数の正常部分空間と、前記特徴データ抽出手段により抽出された特徴データとの角度をそれぞれ計算し、
前記第1の異常判定手段と前記第2の異常判定手段は各クラスタ毎に正常か否かを判定し、判定結果が全てのクラスタにおいて異常と判定された場合にのみ当該特徴データを異常と判定することを特徴とする請求項1に記載の異常検出装置。
Furthermore, a feature data cluster dividing means for dividing the feature data into a plurality of clusters is provided,
The learning means calculates distribution range information of normal samples in the normal subspace and the normal subspace for each divided cluster,
The angle calculation means calculates angles between a plurality of normal subspaces obtained in advance and the feature data extracted by the feature data extraction means,
The first abnormality determination unit and the second abnormality determination unit determine whether each cluster is normal, and determine that the feature data is abnormal only when the determination result is determined to be abnormal in all clusters. The abnormality detection device according to claim 1, wherein:
入力されたデータから特徴データを抽出するステップ、
予め求められている正常部分空間と、前記特徴データ抽出手段により抽出された特徴データとの角度を計算するステップ、
前記角度が所定値よりも大きい場合に異常と判定する第1の異常判定ステップ、
前記第1の異常判定ステップにおいて異常と判定されなかった特徴データを前記正常部分空間へ射影するステップ、
予め求められている、正常部分空間内における正常サンプルの分布範囲情報に基づき、前記射影された特徴データが正常サンプルの分布範囲内か否かを判定する第2の異常判定ステップ
を備えたことを特徴とする異常検出方法。
Extracting feature data from the input data;
Calculating an angle between a normal subspace obtained in advance and the feature data extracted by the feature data extraction unit;
A first abnormality determination step for determining an abnormality when the angle is greater than a predetermined value;
Projecting feature data not determined to be abnormal in the first abnormality determination step onto the normal subspace;
A second abnormality determination step for determining whether or not the projected feature data is within the distribution range of the normal sample based on the distribution range information of the normal sample in the normal subspace obtained in advance; Characteristic abnormality detection method.
JP2007022947A 2007-02-01 2007-02-01 Abnormality detection apparatus and abnormality detection method Expired - Fee Related JP4742370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007022947A JP4742370B2 (en) 2007-02-01 2007-02-01 Abnormality detection apparatus and abnormality detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007022947A JP4742370B2 (en) 2007-02-01 2007-02-01 Abnormality detection apparatus and abnormality detection method

Publications (2)

Publication Number Publication Date
JP2008191754A true JP2008191754A (en) 2008-08-21
JP4742370B2 JP4742370B2 (en) 2011-08-10

Family

ID=39751826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007022947A Expired - Fee Related JP4742370B2 (en) 2007-02-01 2007-02-01 Abnormality detection apparatus and abnormality detection method

Country Status (1)

Country Link
JP (1) JP4742370B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287478A (en) * 2007-05-17 2008-11-27 National Institute Of Advanced Industrial & Technology Abnormality detection apparatus and abnormality detection method
WO2011148439A1 (en) * 2010-05-27 2011-12-01 パナソニック株式会社 Operation analysis device and operation analysis method
JP2013175043A (en) * 2012-02-24 2013-09-05 Tokyo Univ Of Agriculture & Technology Performer identification method, performer identification system, performer identification program and information storage medium
KR101667164B1 (en) * 2015-10-02 2016-10-17 경북대학교 산학협력단 Rotor speed-based bearing fault diagnosis method
JP2020006448A (en) * 2018-07-03 2020-01-16 トヨタ自動車株式会社 Inspection system
CN111813618A (en) * 2020-05-28 2020-10-23 平安科技(深圳)有限公司 Data abnormality detection method, device, equipment and storage medium
CN111880983A (en) * 2020-08-04 2020-11-03 北京天融信网络安全技术有限公司 CAN bus abnormality detection method and device
CN115326803A (en) * 2022-08-29 2022-11-11 中山凯旋真空科技股份有限公司 Method and device for detecting position abnormality of rotating frame
CN115510302A (en) * 2022-11-16 2022-12-23 西北工业大学 Smart factory data classification method based on big data statistics
CN115952412A (en) * 2022-07-29 2023-04-11 上海玫克生储能科技有限公司 Abnormal value detection method, system, device and storage medium for energy storage power station
CN116400639A (en) * 2023-06-08 2023-07-07 佛山市星际云数字科技有限公司 A PLC acquisition data intelligent cleaning method and system
CN119232247A (en) * 2024-12-04 2024-12-31 南京控维通信科技有限公司 An automated performance detection method and device suitable for satellite communications

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030065A (en) * 1998-07-14 2000-01-28 Toshiba Corp Pattern recognition apparatus and method
JP2001283225A (en) * 2000-03-28 2001-10-12 Sanyo Electric Co Ltd In-space abnormality detector and in-space abnormality detecting method
JP2005092346A (en) * 2003-09-12 2005-04-07 National Institute Of Advanced Industrial & Technology Method and apparatus for extracting features from three-dimensional data
JP2005141437A (en) * 2003-11-05 2005-06-02 Toshiba Corp Pattern recognition apparatus and method
JP2005148988A (en) * 2003-11-13 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Parameter estimation method and apparatus, program and recording medium
JP2006012174A (en) * 2004-06-28 2006-01-12 Mitsubishi Electric Research Laboratories Inc Method for detecting abnormal event in video
JP2006148442A (en) * 2004-11-18 2006-06-08 Toshiba Corp Mobile monitoring device
JP2006330797A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Unsteady image detection method, unsteady image detection device, and unsteady image detection program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030065A (en) * 1998-07-14 2000-01-28 Toshiba Corp Pattern recognition apparatus and method
JP2001283225A (en) * 2000-03-28 2001-10-12 Sanyo Electric Co Ltd In-space abnormality detector and in-space abnormality detecting method
JP2005092346A (en) * 2003-09-12 2005-04-07 National Institute Of Advanced Industrial & Technology Method and apparatus for extracting features from three-dimensional data
JP2005141437A (en) * 2003-11-05 2005-06-02 Toshiba Corp Pattern recognition apparatus and method
JP2005148988A (en) * 2003-11-13 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Parameter estimation method and apparatus, program and recording medium
JP2006012174A (en) * 2004-06-28 2006-01-12 Mitsubishi Electric Research Laboratories Inc Method for detecting abnormal event in video
JP2006148442A (en) * 2004-11-18 2006-06-08 Toshiba Corp Mobile monitoring device
JP2006330797A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Unsteady image detection method, unsteady image detection device, and unsteady image detection program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287478A (en) * 2007-05-17 2008-11-27 National Institute Of Advanced Industrial & Technology Abnormality detection apparatus and abnormality detection method
WO2011148439A1 (en) * 2010-05-27 2011-12-01 パナソニック株式会社 Operation analysis device and operation analysis method
JP2011248664A (en) * 2010-05-27 2011-12-08 Panasonic Corp Operation analysis device and operation analysis method
CN102473301A (en) * 2010-05-27 2012-05-23 松下电器产业株式会社 Motion analysis device and motion analysis method
US8565488B2 (en) 2010-05-27 2013-10-22 Panasonic Corporation Operation analysis device and operation analysis method
JP2013175043A (en) * 2012-02-24 2013-09-05 Tokyo Univ Of Agriculture & Technology Performer identification method, performer identification system, performer identification program and information storage medium
KR101667164B1 (en) * 2015-10-02 2016-10-17 경북대학교 산학협력단 Rotor speed-based bearing fault diagnosis method
JP2020006448A (en) * 2018-07-03 2020-01-16 トヨタ自動車株式会社 Inspection system
CN111813618A (en) * 2020-05-28 2020-10-23 平安科技(深圳)有限公司 Data abnormality detection method, device, equipment and storage medium
CN111880983A (en) * 2020-08-04 2020-11-03 北京天融信网络安全技术有限公司 CAN bus abnormality detection method and device
CN115952412A (en) * 2022-07-29 2023-04-11 上海玫克生储能科技有限公司 Abnormal value detection method, system, device and storage medium for energy storage power station
CN115326803A (en) * 2022-08-29 2022-11-11 中山凯旋真空科技股份有限公司 Method and device for detecting position abnormality of rotating frame
CN115510302A (en) * 2022-11-16 2022-12-23 西北工业大学 Smart factory data classification method based on big data statistics
CN116400639A (en) * 2023-06-08 2023-07-07 佛山市星际云数字科技有限公司 A PLC acquisition data intelligent cleaning method and system
CN116400639B (en) * 2023-06-08 2023-08-11 佛山市星际云数字科技有限公司 PLC (programmable logic controller) collected data intelligent cleaning method and system
CN119232247A (en) * 2024-12-04 2024-12-31 南京控维通信科技有限公司 An automated performance detection method and device suitable for satellite communications
CN119232247B (en) * 2024-12-04 2025-03-11 南京控维通信科技有限公司 An automated performance detection method and device suitable for satellite communications

Also Published As

Publication number Publication date
JP4742370B2 (en) 2011-08-10

Similar Documents

Publication Publication Date Title
JP4742370B2 (en) Abnormality detection apparatus and abnormality detection method
JP4769983B2 (en) Abnormality detection apparatus and abnormality detection method
JP4215781B2 (en) Abnormal operation detection device and abnormal operation detection method
JP4368767B2 (en) Abnormal operation detection device and abnormal operation detection method
JP6041923B2 (en) Information processing method and information processing apparatus
CN108470354B (en) Video target tracking method and device and implementation device
JP7130368B2 (en) Information processing device and information processing system
JP5297530B2 (en) Image processing apparatus and interface apparatus
WO2017152794A1 (en) Method and device for target tracking
JP2008192131A (en) System and method for performing feature level segmentation
KR20170056860A (en) Method of generating image and apparatus thereof
CN109284673A (en) Method for tracing object and device, electronic equipment and storage medium
JP2011210054A (en) Object detection device and learning device for the same
JP6487642B2 (en) A method of detecting a finger shape, a program thereof, a storage medium of the program, and a system for detecting a shape of a finger.
WO2018154709A1 (en) Movement learning device, skill discrimination device, and skill discrimination system
CN120108161A (en) Tunnel construction monitoring and analysis method and system based on AI video monitoring
KR20160122323A (en) Face recognition method and facial feature extraction method using local contour patten
KR101467307B1 (en) Method and apparatus for counting pedestrians using artificial neural network model
US20200034649A1 (en) Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method
CN107665495B (en) Object tracking method and object tracking device
JP7374632B2 (en) Information processing device, information processing method and program
Yang et al. Crowd scene anomaly detection in online videos
JP2010113562A (en) Apparatus, method and program for detecting and tracking object
Iyidir et al. Adaptive visual obstacle detection for mobile robots using monocular camera and ultrasonic sensor
Kumagai et al. HLAC between cells of HOG feature for crowd counting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4742370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees