JP2016062249A - Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program - Google Patents
Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program Download PDFInfo
- Publication number
- JP2016062249A JP2016062249A JP2014189099A JP2014189099A JP2016062249A JP 2016062249 A JP2016062249 A JP 2016062249A JP 2014189099 A JP2014189099 A JP 2014189099A JP 2014189099 A JP2014189099 A JP 2014189099A JP 2016062249 A JP2016062249 A JP 2016062249A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- class
- identification
- optimization index
- identification dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000005457 optimization Methods 0.000 claims abstract description 194
- 238000004364 calculation method Methods 0.000 claims abstract description 48
- 230000004044 response Effects 0.000 claims description 8
- 238000013459 approach Methods 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 abstract 1
- 230000002776 aggregation Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 38
- 238000010586 diagram Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 18
- 238000000605 extraction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、認識辞書を学習する技術に関する。 The present invention relates to a technique for learning a recognition dictionary.
物体検出においてよく利用される統計的パターン識別技術の1つに、Boostingと呼ばれる手法がある。Boostingは、多数の単純な識別器を組み合わせることによって、識別の精度を向上させる技術である。Boostingにおいて、単純な識別器は弱識別器と呼ばれる。弱識別器を組み合わせることによって作られる高精度な識別器は、強識別器と呼ばれる。Boostingに基づく技術の例が、例えば、非特許文献1乃至4に記載されている。
One of the statistical pattern identification techniques often used in object detection is a technique called Boosting. Boosting is a technique for improving the accuracy of identification by combining a large number of simple classifiers. In Boosting, a simple classifier is called a weak classifier. A high-accuracy classifier made by combining weak classifiers is called a strong classifier. Examples of techniques based on Boosting are described in
非特許文献1には、Boostingの一つであるAdaBoostを物体検出に利用する例が記載されている。非特許文献2には、AdaBoostを改良したRealAdaBoostと呼ばれるBoosting手法が記載されている。非特許文献3には、AdaBoostを改良した手法の1つであるGentleAdaBoostが記載されている。非特許文献1、非特許文献2、及び非特許文献3に記載されている技術は、例えば、画像における、例えば顔や車などの特定の物体の検出に適用することが可能である。例えば、画像の部分領域がその特定の物体の像であるか否かを、非特許文献1、非特許文献2、又は非特許文献3に記載されている技術を使用して識別することができる。
Non-Patent
非特許文献4には、例えば方向などの違いによる外観の変動が大きい物体を識別する技術の例が記載されている。非特許文献4に記載されている技術では、識別の対象である1つの物体に対して、外観のバリエーションに応じた複数のカテゴリ(すなわちクラス)と、識別の対象である物体以外の対象のカテゴリとが生成される。
Non-Patent
特許文献1には、オブジェクトを複数のクラスのいずれかに分類する、マルチクラスの判別を行う判別器を生成する判別器生成装置が記載されている。特許文献1の判別器生成装置は、複数の弱判別器を組み合わせることによって判別器を生成する。特許文献1の判別器生成装置は、複数のクラス間における弱判別器に、特徴量のみを共有する学習を行う。
特許文献2には、学習モデルのパラメータを最適化する学習モデル生成装置が記載されている。特許文献2の学習モデル生成装置は、認識対象毎に分類器を生成する。
非特許文献1乃至3に記載されている技術では、識別したい物体の外観のバリエーションが大きい場合、識別したい物体から得られる学習サンプルのばらつきも大きい。すなわち、識別したい物体のクラスに分類される学習サンプルのばらつきが大きい。そのため、非特許文献1乃至3に記載されている技術では、学習の結果として生成される識別器によって高い識別精度が得られない。
In the techniques described in
外観のバリエーションが大きい、識別したい物体に複数のクラスを割り当てる場合、識別したい物体に割り当てられる複数のクラスと、識別したい物体以外の対象に割り当てられるクラスとを識別できれば、その物体を識別できる。すなわち、物体の識別のために識別することが必要なクラスの組み合わせは限られる。しかし、非特許文献4、特許文献1及び特許文献2に記載されている技術では、検出したい物体の外観のバリエーションに応じて生成されるクラスと、検出したい物体でない対象のクラスとが区別されずに、学習が行われる。従って、非特許文献4、特許文献1及び特許文献2の技術によって学習された識別辞書に基づく識別では、上述のように識別が必要なクラスの組み合わせが限られる場合であっても、その識別辞書に伴う全ての計算を完了させる必要がある。例えば、その計算を途中で打ち切った場合、識別精度が低下する可能性がある。すなわち、非特許文献4、特許文献1及び特許文献2に記載されている技術では、識別対象の外観のバリエーションが大きい場合、識別精度の低下を抑制しながら、例えば識別処理を打ち切ることによって識別時間を短縮させることができる識別辞書は得られない。なお、識別辞書は、例えば、学習の結果として得られる、識別器を表す、例えば識別子及びパラメータなどのデータ値の集合である。
When assigning a plurality of classes to an object to be identified that has a large variation in appearance, the object can be identified if a plurality of classes assigned to the object to be identified and a class assigned to a target other than the object to be identified can be identified. That is, the combinations of classes that need to be identified for object identification are limited. However, in the techniques described in
本発明の目的の一つは、外観のバリエーションが大きい物体が識別の対象である場合における、外観のバリエーションが小さい場合と比較した、識別精度の低下を抑制しながら、識別時間を短縮できる識別辞書を作成できる識別辞書学習装置を提供することにある。 One of the objects of the present invention is an identification dictionary that can shorten the identification time while suppressing a decrease in identification accuracy compared with a case where an object with a large appearance variation is a target of identification compared to a case where the appearance variation is small. Is to provide an identification dictionary learning apparatus capable of generating
本発明の一態様に係る識別辞書学習装置は、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、を備える。 An identification dictionary learning device according to an aspect of the present invention performs class classification for classifying a data value belonging to any of a plurality of classes into any of the plurality of classes, including a plurality of classifiers, a plurality of the data An optimization index representing the classification accuracy of the class classification of a combination of a learning means that learns using a learning sample that is a value, the class to which the learning sample belongs in the incorrect class classification, and the classified class Index calculating means for calculating the optimization index of each of the plurality of discriminators based on a plurality of optimization index coefficients each representing the magnitude of contribution to each of the discriminators learned, the optimal The classification indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is a set of the weak classifiers stored in the identification dictionary storage unit Comprising a determining means for adding in the book, in response to the weak classifier is added, and a coefficient updating means for performing, based updating of the optimization metrics coefficient rules.
本発明の一態様に係る識別辞書学習方法は、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習し、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算し、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加し、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う。 An identification dictionary learning method according to an aspect of the present invention includes: classifying a data value belonging to any of a plurality of classes into any of the plurality of classes; Contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class learned using the learning sample that is a value The optimization index of each of the plurality of classifiers is calculated based on a plurality of optimization index coefficients each representing the size of the classifier, and among the learned classifiers, the optimization index has an identification accuracy. The classifier representing the highest is selected as a weak classifier, and the weak classifier is added to an identification dictionary that is a set of weak classifiers stored in an identification dictionary storage unit, and the weak classifier But In response to the pressure, it performed on the basis of the updating of the optimization metrics coefficient rules.
本発明の一態様に係る識別辞書学習プログラムは、コンピュータを、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、して動作させる。 An identification dictionary learning program according to an aspect of the present invention performs classification of a computer that classifies a data value belonging to any of a plurality of classes into any of the plurality of classes. Represents the classification accuracy of the class classification of the combination of the learning means that learns using the learning sample that is the data value, the class to which the learning sample belongs in the incorrect class classification, and the classified class. Based on a plurality of optimization index coefficients each representing the magnitude of contribution to the optimization index, index calculation means for calculating the optimization index of each of the plurality of classifiers, and among the learned classifiers The optimization indicator selects the discriminator indicating that the discrimination accuracy is the highest as the weak discriminator, and the weak discriminator is stored in the identification dictionary storage unit, the weak discriminator A decision means for adding to an identification dictionary which is a set of separate devices; and a coefficient updating means for updating the optimization index coefficient based on a rule in accordance with the addition of the weak classifier. .
本発明には、外観のバリエーションが大きい物体が識別の対象である場合における、外観のバリエーションが小さい場合と比較した、識別精度の低下を抑制しながら、識別時間を短縮できる識別辞書を作成できるという効果がある。 According to the present invention, it is possible to create an identification dictionary that can shorten the identification time while suppressing a decrease in identification accuracy as compared with a case where an object having a large variation in appearance is a target of identification compared to a case where the variation in appearance is small. effective.
以下では、まず、本発明との比較のために、画像において物体を検出する技術について説明する。 In the following, first, a technique for detecting an object in an image will be described for comparison with the present invention.
画像において、特定の種類の物体を検出し、その物体の像が存在する領域の位置を決める技術として、テンプレートマッチングと呼ばれる技術が古くから利用されている。テンプレートマッチングは、画像中に設定された探索窓と、あらかじめ用意されたテンプレート画像とのマッチング計算を、探索窓を変更しながら多数回繰り返すことによって、テンプレート画像と類似している領域を特定する探索手法である。テンプレート画像は、例えば、検出される物体のみの画像である。この際、単純にテンプレート画像の画素値と画像中の画素値を利用してマッチングした場合、マッチングの精度は低い。マッチングの精度を高めるために、周辺画素との勾配情報や2次微分情報等を計算することによって、画素値を、よりマッチングしやすい、特徴量と呼ばれる数値列に変換する手法がよく利用される。さらに、精度を高めるために、統計的パターン識別技術を用いて、識別処理に使用されるパラメータ群を最適化し(すなわち学習し)、その辞書を用いてマッチングの計算を行う手法がよく利用される。識別処理に使用されるパラメータ群は、一般に、「辞書」とも呼ばれる。この場合の辞書は、検出したい特定の物体のクラスである物体クラス(ポジティブクラス)と、検出したい特定の物体以外のクラスである非物体クラス(ネガティブクラス)の2クラス識別をすることができるように、ある決められた指標について最適化される。この指標は、利用される統計的パターン識別技術によって異なる。 A technique called template matching has long been used as a technique for detecting a specific type of object in an image and determining the position of an area where the image of the object exists. Template matching is a search that identifies a region similar to a template image by repeating matching calculations between a search window set in the image and a template image prepared in advance many times while changing the search window. It is a technique. The template image is an image of only the detected object, for example. At this time, when matching is simply performed using the pixel value of the template image and the pixel value in the image, the matching accuracy is low. In order to increase the accuracy of matching, a technique of converting pixel values into numerical sequences called feature values that are more easily matched by calculating gradient information with secondary pixels, second-order differential information, and the like is often used. . Furthermore, in order to improve accuracy, a method of optimizing (that is, learning) a parameter group used for identification processing by using a statistical pattern identification technique and calculating a matching using the dictionary is often used. . The parameter group used for the identification process is generally called a “dictionary”. The dictionary in this case is capable of classifying two classes: an object class (positive class) which is a class of a specific object to be detected and a non-object class (negative class) which is a class other than the specific object to be detected. Then, it is optimized for a certain index. This index depends on the statistical pattern identification technique used.
物体検出においてよく利用される統計的パターン識別技術の1つに、Boostingと呼ばれる手法がある。Boostingは、多数の単純な識別器(弱識別器)を組み合わせることによって、高精度な識別器(強識別器)を構成する手法の1つである。よく使われるAdaBoostと呼ばれる手法による識別処理では、多数の弱識別器を順に実行することによって得られる、個々の弱識別器の出力スコアを、重み付きで足し合わせた値が、強識別器の出力スコアとして導出される。AdaBoostによる学習処理では、弱識別器を1つずつ学習し、学習した弱識別器を強識別器に使用される弱識別器に追加していくことにより、1つの強識別器を構築する。弱識別器を学習する際、既に追加されている弱識別器が誤識別しやすい学習データ(学習サンプル)に対して、大きな重みを付与することによって、その学習サンプルを重視した学習が行われる。 One of the statistical pattern identification techniques often used in object detection is a technique called Boosting. Boosting is one of the techniques for constructing a highly accurate classifier (strong classifier) by combining a large number of simple classifiers (weak classifiers). In a classification process using a commonly used method called AdaBoost, the value obtained by sequentially executing a number of weak classifiers and adding the output scores of the individual weak classifiers with weights is the output of the strong classifiers. Derived as a score. In the learning process by AdaBoost, one weak classifier is learned one by one, and one weak classifier is constructed by adding the learned weak classifier to the weak classifier used for the strong classifier. When learning a weak discriminator, learning that emphasizes the learning sample is performed by assigning a large weight to learning data (learning sample) that is easily misidentified by an already added weak discriminator.
なお、学習サンプルは、例えば、既知の識別対象を観測することによって得られるデータ値のうち、学習部112による学習に使用されるデータである。また、識別データは、例えば、属するクラスを識別しようとする識別対象が観測されることによって得られたデータ値である。以下の説明において、識別データは、単に「サンプル」とも表記される。識別対象は、あらかじめ定められたいずれかのクラスに属する。以下の説明において、「学習サンプルが属するクラス」は、観測によってその学習サンプルが得られた識別対象が属するクラスを指す。同様に、「識別データ(サンプル)が属するクラス」は、観測によってその識別データ(サンプル)が得られた識別対象が属するクラスを指す。例えば、観測によって学習サンプルAが得られた識別対象がクラスBに属する場合、「学習サンプルAがクラスBに属する」と表記する。
The learning sample is, for example, data used for learning by the
上述のように、非特許文献1によって、Boostingを物体検出に効果的に利用した例が開示されている。非特許文献1に開示されている手法は、広く知られている手法である。特徴量として、RectangleFilterを利用することによって高速に計算できるHaarウェーブレットが採用されている。Boostingの弱識別器として、特徴量の1つに対して単純に閾値処理を行うだけの処理(Decision−Stump)が採用されている。そのため、弱識別器の学習処理では、1つの特徴量が選択され、選択された特徴量に対して適切な閾値が1つ決定される。強識別器の生成にはAdaBoostが採用されている。非特許文献2によって、AdaBoostが改良された、RealAdaBoostと呼ばれるBoosting手法が開示されている。この手法では、単純なDecision−Stumpではなく、ポジティブクラスの特徴量の出現確率とネガティブクラスの特徴量の出現確率に基づいた弱識別が行われる。そのため、学習データさえ大量にあれば、高精度な物体検出が実現される。また、非特許文献3によって、GentleAdaBoostと呼ばれる、AdaBoostが改良した手法の1つが開示されている。この手法は、学習処理において最適化する指標(損失)の定義を修正することによって、安定的に学習ができ、そして、RealAdaBoostと同等以上の精度を得られることで知られている。前述の非特許文献1に開示されている技術によって、特定の物体(例:顔や車)を画像から高精度に検出することが可能である。また、非特許文献1に開示されている技術と非特許文献2または非特許文献3に開示されている技術とを組み合わせることで、特定の物体(例:顔や車)を画像から高精度に検出することが可能である。しかし、これらの場合、検出したい物体の見た目のバリエーションが大きい場合には、高い検出精度を得られない。
As described above,
画像上で見た目のバリエーションが大きい物体を検出する場合、見た目のバリエーションの種類毎に識別辞書を1つ用意し、それぞれの見た目のバリエーションの種類について検出処理を行う方式がよく利用される。しかし、この方式では見た目の種類の数だけ処理時間が増加してしまう問題がある。これに対して、非特許文献4には、見た目のバリエーションを分類して別々のカテゴリ(クラス)とみなし、複数のクラス間で特徴量と弱識別器を共有できるように学習する枠組みが開示されている。この手法では、弱識別器を共有できるため、処理時間が単純にクラス数倍には増加せず、比較的高速な処理を実現できる。しかし、見た目が1つの場合と比較して、弱識別器の個数が増加する傾向があるため、高速化の度合いは大きくない。
When detecting an object having a large appearance variation on an image, a method of preparing one identification dictionary for each type of appearance variation and performing a detection process for each type of appearance variation is often used. However, this method has a problem that the processing time increases by the number of types of appearance. On the other hand,
統計的パターン識別分野において多クラス識別手法は多数存在する。見た目のバリエーションが大きい、例えば物体等の識別対象を検出する多クラス識別では、識別対象のクラス構成が、階層的な多クラス構成である点において、特殊である。識別対象は、その識別対象がどのクラスに属するかが判定される対象である。階層的な多クラス構成は、例えば、識別対象の全体がポジティブ系のクラスとネガティブ系のクラスとに分類され、さらに、ポジティブ系のクラスは複数のサブクラスに分けられる多クラス構成である(図8参照)。以下の説明において、ポジティブ系のクラス(すなわち、上述のサブクラス)の各々を、「ポジティブクラス」、「ポジティブ系クラス」又は「物体クラス」とも表記する。ポジティブ系のクラスを、「ネガティブクラス」、「ネガティブ系クラス」又は「非物体クラス」とも表記する。 There are many multi-class identification methods in the field of statistical pattern identification. In multi-class identification that detects an identification target such as an object having a large variation in appearance, for example, the class configuration of the identification target is special in that it is a hierarchical multi-class configuration. The identification object is an object for which the class to which the identification object belongs is determined. The hierarchical multi-class configuration is, for example, a multi-class configuration in which the entire identification target is classified into a positive class and a negative class, and the positive class is further divided into a plurality of subclasses (FIG. 8). reference). In the following description, each positive class (that is, the above-described subclass) is also referred to as a “positive class”, a “positive class”, or an “object class”. The positive class is also referred to as “negative class”, “negative class”, or “non-object class”.
図8は、階層的な多クラスに分類される、識別対象の例を模式的に表す図である。図8において、同じクラスに含まれる識別対象は、同じ図形によって表されている。図形の位置は、その図形によって表される識別対象の画像から抽出された特徴量の、特徴空間内の位置を模式的に表す。特徴空間は、特徴量の空間を表す。図8に示す例では、識別対象は、検出される物体のクラスであるポジティブクラスと、検出される物体ではない対象のクラスであるネガティブクラスとのいずれかに分類される。図8に示す例では、ポジティブ系のクラスは、さらに、3つのサブクラス(ポジティブクラス)に分かれている。そして、3つのポジティブクラスは、「Pos1」、「Pos2」、及び「Pos3」と名付けられている。検出対象の物体が顔である場合、例えば、Pos1に正面顔が割り当てられ、Pos2に斜め顔が割り当てられ、Pos3に横顔が割り当てられるように、ポジティブクラスの各々に、撮影の方向が異なる顔が割り当てられる。他にも、検出対象が顔である場合、Pos1に人間の正面顔が割り当てられ、Pos2に人形の正面顔が割り当てられるといった割り当てもあり得る。このような方式を評価するには、2種類の精度が考えられる。1つは見た目に関わらずとにかく物体を検出できる精度(以下、第1の精度)である。第1の精度は、ポジティブ系のクラス全体とネガティブクラスとの間の識別する能力に関わる。もう1つは物体の見た目を正しく分類できる精度(以下、第2の精度)である。第2の精度は、ポジティブ系のクラス間を識別する能力に関わる。物体検出では、前述の第1の精度が高いことは必須である。そして、用途によっては、第2の精度も重要である。なお、図8に示すポジティブ系のクラスとネガティブクラスとの境界は、概念的に物体と非物体の境界を示す。 FIG. 8 is a diagram schematically illustrating an example of identification objects classified into hierarchical multi-classes. In FIG. 8, identification objects included in the same class are represented by the same graphic. The position of the figure schematically represents the position in the feature space of the feature quantity extracted from the image to be identified represented by the figure. The feature space represents a feature amount space. In the example illustrated in FIG. 8, the identification target is classified into one of a positive class that is a class of a detected object and a negative class that is a target class that is not a detected object. In the example shown in FIG. 8, the positive class is further divided into three subclasses (positive class). The three positive classes are named “Pos1”, “Pos2”, and “Pos3”. When the object to be detected is a face, for example, a front face is assigned to Pos1, an oblique face is assigned to Pos2, and a side face is assigned to Pos3. Assigned. In addition, when the detection target is a face, a human front face may be assigned to Pos1, and a doll front face may be assigned to Pos2. Two types of accuracy can be considered to evaluate such a method. One is accuracy (hereinafter referred to as first accuracy) that can detect an object regardless of appearance. The first accuracy relates to the ability to discriminate between the entire positive class and the negative class. The other is accuracy (hereinafter referred to as second accuracy) that can correctly classify the appearance of the object. The second accuracy relates to the ability to discriminate between positive classes. In the object detection, it is essential that the first accuracy described above is high. The second accuracy is also important depending on the application. Note that the boundary between the positive class and the negative class shown in FIG. 8 conceptually indicates the boundary between the object and the non-object.
非特許文献4では、個々のポジティブ系クラスとネガティブクラスとを分類できるように学習が行われ、各ポジティブ系クラスのスコアが出力される。そのため、結果的に階層的なクラスの分類が可能である。さらに、学習時にポジティブ系クラスのラベルの一部をポジティブでもネガティブでもないラベルに設定することによって、ポジティブ系クラス全体とネガティブクラスとの間の識別を特に優先させることが可能である。しかし、その優先の度合いは固定であり任意には調整できない。
In
次に、以下の説明の便宜上、本実施の形態により作成された識別辞書を用いた多クラス識別処理の枠組みについて先に説明する。識別辞書には学習された多数の弱識別器の情報が記憶されている。それらの弱識別器を1つずつ順に実行することによって、全体的な識別結果が得られる。上述のように、このように弱識別器を組み合わせた処理は機械学習・パターン認識分野では強識別器と呼ばれる。この枠組みはBoostingと呼ばれる枠組みの一変種である。弱識別器それぞれは1つまたは複数のポジティブ系クラスをサポートしている。弱識別器は、入力データに対して、その弱識別器がサポートしているポジティブ系クラスのスコアと、その弱識別器がサポートしていないポジティブ系クラスのスコアの、2種類のスコアが出力するよう設計されていてもよい。その場合、1つの弱識別器によって計算されるスコアの値は、その弱識別器がサポートしているポジティブ系クラスについては同一の値であり、残りのポジティブ系クラスについては別の同一の値である。言い換えると、各弱識別器は、入力データに対して、その弱識別器がサポートするポジティブ系クラスのスコアとして、同一の値を出力する。各弱識別器は、さらに、その入力データに対して、その弱識別器がサポートするポジティブ系クラス以外のクラスのスコアとして、他の同一の値を出力する。弱識別器が、その弱識別器がサポートするポジティブ系クラスのスコアとして出力するスコアは、例えば、入力データによって表される識別対象が、その弱識別器がサポートするポジティブ系クラスのいずれかに属する可能性の程度を表す。弱識別器が、その弱識別器がサポートするポジティブ系クラス以外のクラスのスコアとして出力するスコアは、例えば、入力データによって表される識別対象が、その弱識別器がサポートするポジティブ系クラスのいずれにも属しない可能性の程度を表す。 Next, for the convenience of the following description, a multi-class identification processing framework using the identification dictionary created according to the present embodiment will be described first. Information on a number of learned weak classifiers is stored in the identification dictionary. By executing these weak classifiers one by one in order, an overall discrimination result is obtained. As described above, the process combining the weak classifiers is called a strong classifier in the field of machine learning / pattern recognition. This framework is a variant of the framework called Boosting. Each weak classifier supports one or more positive classes. The weak classifier outputs two types of scores for the input data, that is, a positive class score supported by the weak classifier and a positive class score not supported by the weak classifier. It may be designed as follows. In that case, the score value calculated by one weak classifier is the same value for the positive class supported by the weak classifier, and another same value for the remaining positive class. is there. In other words, each weak classifier outputs the same value as the score of the positive class supported by the weak classifier with respect to the input data. Each weak classifier further outputs another identical value as the score of a class other than the positive class supported by the weak classifier for the input data. The score that the weak classifier outputs as the score of the positive class supported by the weak classifier is, for example, the identification target represented by the input data belongs to one of the positive class supported by the weak classifier Represents the degree of possibility. The score output by the weak classifier as a score of a class other than the positive class supported by the weak classifier is, for example, any of the positive classes supported by the weak classifier represented by the input data. The degree of possibility that it does not belong to.
そして、弱識別器の各々が出力するスコアの、ポジティブ系クラス毎の累積和が計算される。計算された累積和が、強識別器の出力(強識別スコア)である。つまり、強識別スコアはポジティブ系クラス毎に求まる。従って、入力データを、強識別スコアの最大値をとるポジティブ系クラスに分類することができる。以下では、個々の弱識別器がサポートしているポジティブ系クラスを簡潔に表現するために、1つまたは複数のポジティブ系クラスからなる、ポジティブ系クラスの集合を、単集合Snと表記する(n=1,…,集合の数)。 Then, the cumulative sum for each positive class of the score output from each weak classifier is calculated. The calculated cumulative sum is the output (strong discrimination score) of the strong discriminator. That is, a strong discrimination score is obtained for each positive class. Therefore, the input data can be classified into a positive class that takes the maximum value of the strong discrimination score. In the following, for the sake of brevity the positive type classes each weak classifier supports consists of one or more positive system class, a set of positive system classes, referred to as a single set S n ( n = 1, ..., number of sets).
前記強識別器の出力は数1に示す式を使用して計算される。数1に示す式において、cはポジティブ系クラスに付与される番号を表す。Hc及びhm cは、それぞれ、ポジティブ系クラスcらしさを表す、強識別器の出力値及びm番目の弱識別器の出力値を表す。NMは弱識別器の個数であり、mは弱識別器番号である。強識別器は、各ポジティブ系クラスcに関して、個別に出力値(Hc)を出力する。また、各弱識別器mも、各ポジティブ系クラスcに関して、個別に出力値(hm c)を出力する。すべてのポジティブ系クラス(c=1, ... , NC)分だけ出力する。NCは、ポジティブ系クラスの数(ポジティブ系クラス数)である。つまり、ポジティブ系クラス数個の数値が出力される。
The output of the strong classifier is calculated using the equation shown in
なお、このような強識別器を用いて識別処理を行う際には、必ずしも全ての弱識別器の出力値の計算を行う必要はない。弱識別器の一部(例えば、付与されている弱識別器番号mが1からNM’ (NM’ < NM)までの弱識別器)のみの出力値を計算して得られる中間出力値を取り出してもよい。例えば、弱識別器の出力値を順次計算する過程において、取り出された中間出力値を閾値処理することによって識別器への入力がネガティブクラスであることを判定できれば、残りの計算を省略できる。特に物体検出を行う場合には、識別器への入力がネガティブクラス(非物体クラス)である確率が非常に高い。そのため、少ない弱識別器が計算されている段階で、識別器への入力がネガティブクラスだと判定することができれば、計算コストが非常に小さくなるので、高速な物体の検出が可能になる。 Note that when performing the classification process using such a strong classifier, it is not always necessary to calculate the output values of all weak classifiers. Intermediate output obtained by calculating the output value of only a part of weak classifiers (for example, weak classifiers whose weak classifier number m is 1 to N M '(N M '<N M )) The value may be retrieved. For example, in the process of sequentially calculating the output value of the weak classifier, if the input to the classifier can be determined to be a negative class by thresholding the extracted intermediate output value, the remaining calculations can be omitted. In particular, when performing object detection, the probability that the input to the discriminator is a negative class (non-object class) is very high. Therefore, if it can be determined that the input to the discriminator is a negative class at a stage where a few weak discriminators are being calculated, the calculation cost becomes very low, and thus high-speed object detection is possible.
<第1の実施形態>
次に、本発明の第1の実施形態である識別辞書学習システム100について添付図面を参照して説明する。
<First Embodiment>
Next, the identification
図1は、本発明の第1の実施形態に係る識別辞書学習システム100の構成の例を表すブロック図である。
FIG. 1 is a block diagram showing an example of the configuration of an identification
図1を参照すると、本実施形態に係る識別辞書学習システム100は、識別辞書学習装置110と、記憶装置120とを備える。
Referring to FIG. 1, an identification
識別辞書学習装置110は、初期化部111と、学習部112と、指標計算部113と、決定部114と、重み更新部115と、係数更新部116とを有する。識別辞書学習装置110は、さらに、係数記憶部121と、重み記憶部123と、を有していてもよい。識別辞書学習装置110は、さらに、サンプル記憶部124を有していてもよい。
The identification
記憶装置120は、識別辞書記憶部122を有する。識別辞書学習装置110ではなく記憶装置120が、さらに、係数記憶部121と、重み記憶部123と、を有していてもよい。識別辞書学習装置110ではなく記憶装置120が、さらに、サンプル記憶部124を有していてもよい。識別辞書学習装置110が、記憶装置120を含んでいてもよい。
The
前述の各記憶部には、それぞれ以下のデータが記憶される。 The following data is stored in each storage unit described above.
係数記憶部121には、本実施形態の識別辞書学習装置110の動作中に利用される最適化指標係数の数値群が記憶される。最適化指標係数は、0.0以上の数値である。係数記憶部121は、最適化指標係数の数値群を、最適化指標係数テーブルとして、テーブルの形態で記憶してもよい。この最適化指標係数テーブルには、学習サンプルが属するクラスと、その学習サンプルが分類されたポジティブ系クラスとの組み合わせに対して適用される最適化指標係数が記憶される。それら組み合わせに対して、それぞれ1つの最適化指標係数が記憶される。学習サンプルは、複数のポジティブ系クラス及びネガティブ系クラスのいずれかに属する。そのため、テーブル中の最適化指標係数の個数は、「総クラス数×ポジティブ系クラス数」個である。総クラス数は、ポジティブ系クラス数とネガティブクラス数との和のことである。ネガティブクラス数は、必ず1である。この最適化指標係数テーブルに格納されている最適化指標係数の値は、学習処理の繰り返し応じて変化する。すなわち、最適化指標係数の値は、学習処理の繰り返し回数tに応じて変化する。
The
重み記憶部123は、本実施形態の識別辞書学習装置110の動作中に利用される学習用データ(学習サンプル)の重みを表す数値を記憶する。重み記憶部123が記憶する重みは、「サンプル重み」とも表記される。この重みは、個々の学習サンプルについて、ポジティブ系クラス別に設定される。重み記憶部123は、1つの学習サンプルに対して、1つの重みではなく、ポジティブ系クラス数個の重みを記憶する。このため、重み記憶部123が記憶する重みの個数は、「全ての学習サンプルの個数×ポジティブ系クラス数」である。この重みは、個々のポジティブ系クラスに関する分類の失敗しやすさを表す。重視して学習すべき学習サンプルほど、その学習サンプルに設定される重みは大きな値となる。サンプル重みの例を図2に示す。
The
図2は、重み記憶部123が記憶する重みの例を模式的に表す図である。図2に示す例では、3つのポジティブ系クラスが存在する。それらのポジティブ系クラスは、「Pos1」、「Pos2」、及び「Pos3」によって表される。そして、重み記憶部123には、1から8までのサンプル番号が付与されている学習サンプルに設定されている重みが格納されている。図2の2行目は、学習サンプルが属するクラスを表す。
FIG. 2 is a diagram schematically illustrating an example of weights stored in the
識別辞書記憶部122は、本発明を実行することによって得られる強識別器のパラメータである識別辞書を記憶する。識別辞書学習装置110によって得られる強識別器のパラメータが、識別辞書として、識別辞書記憶部122に格納される。強識別器は弱識別器の集合である。そのため、強識別器のパラメータは、実質的には複数の弱識別器のパラメータと同等である。識別辞書記憶部122は、弱識別器1個分のパラメータとして、例えば、以下を記憶する。
The identification
(1)弱識別器に使われる特徴量として選択された特徴量の種類を特定する情報、
(2)学習サンプルの特徴値に基づく、後述する弱識別器の出力値の計算に使用できるルックアップテーブル、
(3)弱識別器がサポートするポジティブ系クラスの集合Snを特定する情報。
(1) Information specifying the type of feature quantity selected as the feature quantity used for the weak classifier;
(2) a look-up table that can be used to calculate an output value of a weak classifier to be described later, based on a feature value of a learning sample
(3) information weak classifiers to identify the set S n of positive system classes to support.
特徴量は、学習サンプルの特徴を表す値である。学習サンプルは、識別対象を観測することによって得られるデータ値である。学習サンプルは、特徴量を含んでいてもよい。学習サンプルが特徴量であってもよい。なお、以下の説明において、特徴量は、「特徴の値」又は「特徴の数値」とも表記される。特徴量は、例えば色、画素値、勾配(画素値の1次微分)、画素値の2次微分等である。特徴量の種類を特定する情報は、例えば、弱識別器において使われる特徴量としてどの種類の特徴量が選択されたかを特定するデータ値である。例えば、学習サンプルから複数の種類の特徴量が抽出され、抽出される特徴量の種類の各々に通し番号等が付与されている場合、特徴量の種類を特定するデータ値は、その通し番号等であってもよい。特徴量の種類を特定するデータ値は、その特徴量を抽出するために使用されるパラメータであってもよい。上述のルックアップテーブルは、学習サンプルの特徴量に基づく、弱識別器の出力値の計算に使用できる参照表である。識別辞書記憶部122は、例えば、特徴量の種類と、ポジティブ系クラスの集合とに応じた、特徴量に基づいて出力値を計算するのに使用されるパラメータを、上述のルックアップテーブルとして記憶していればよい。ルックアップテーブルについての詳細な説明は後述する。識別辞書記憶部122は、ルックアップテーブルの代わりに、特徴量の種類と、ポジティブ系クラスの集合とに応じた、特徴量に基づいて出力値を計算するのに使用されるパラメータを、ルックアップテーブルではない形態で記憶していてもよい。
The feature amount is a value representing the feature of the learning sample. The learning sample is a data value obtained by observing the identification target. The learning sample may include a feature amount. The learning sample may be a feature amount. In the following description, the feature amount is also expressed as “feature value” or “feature value”. The feature amount is, for example, color, pixel value, gradient (primary differentiation of pixel value), secondary differentiation of pixel value, or the like. The information that specifies the type of feature quantity is, for example, a data value that specifies which type of feature quantity has been selected as the feature quantity used in the weak classifier. For example, when a plurality of types of feature quantities are extracted from the learning sample and a serial number is assigned to each of the extracted feature quantity types, the data value specifying the type of feature quantity is the serial number or the like. May be. The data value that specifies the type of feature quantity may be a parameter used to extract the feature quantity. The lookup table described above is a reference table that can be used to calculate the output value of the weak classifier based on the feature amount of the learning sample. The identification
弱識別器がサポートするポジティブクラスは、例えば、ポジティブ系クラスの集合Snによって表される。弱識別器がサポートするポジティブクラスを特定する情報は、例えば、ポジティブ系クラスの集合Snを特定するデータ値によって表される。弱識別器がサポートするポジティブクラスを特定する情報は、例えば、ポジティブ系クラスの集合Snに付与されている、集合の番号nであってもよい。 The positive class supported by the weak classifier is represented by a set Sn of positive class, for example. The information specifying the positive class supported by the weak classifier is represented by, for example, a data value specifying the set Sn of the positive class. The information specifying the positive class supported by the weak classifier may be, for example, the set number n assigned to the set Sn of the positive class.
上述のように、本実施形態では、各弱識別器は、入力データに基づいて、その弱識別器がサポートするポジティブ系クラスについてのスコアと、その弱識別器がサポートするポジティブ系クラス以外のクラスについてのスコアとを計算する。本実施形態では、弱識別器がサポートするポジティブ系クラスについてのスコアを計算する計算式は、その弱識別器がサポートするポジティブ系クラス以外のクラスについてのスコアを計算する計算式と異なる。本実施形態において、弱識別器は、クラスについてのスコアを、その弱識別子がサポートするポジティブ系クラスを表すSnに、そのクラスが含まれるか否かに応じて、異なる計算式に基づいて計算する。本実施形態に係る識別辞書学習装置110によって得られた識別辞書に基づいて動作する強識別器の一部である弱識別器は、スコアを算出する際、例えば、その弱識別子がサポートするSnを特定する情報を、識別辞書記憶部122から読み出せばよい。そして、その弱識別器は、識別辞書記憶部122から読み出した、その弱識別器がサポートするSnを特定する情報によって特定されるSnにクラスが含まれるか否かに応じて定まる計算式に基づく計算方法に従って、クラス毎にスコアを計算すればよい。識別辞書記憶部122には、決定部114が弱識別器を繰り返し決定する度に、決定部114によって、決定された弱識別器に関するパラメータが、順次格納される。識別辞書学習装置110による、弱識別器の決定及びパラメータの格納の動作が完了すると、全てのパラメータが記録された識別辞書が完成する。
As described above, in the present embodiment, each weak classifier is based on input data, the score for the positive class supported by the weak classifier, and the class other than the positive class supported by the weak classifier. Calculate the score for and. In the present embodiment, the calculation formula for calculating the score for the positive class supported by the weak classifier is different from the calculation formula for calculating the score for a class other than the positive class supported by the weak classifier. In this embodiment, the weak classifier calculates a score for a class based on a different calculation formula depending on whether or not the class is included in Sn representing a positive class supported by the weak identifier. . Weak classifier is a part of the strong classifier which operates on the basis of the obtained identification dictionary by identifying
サンプル記憶部124は、学習サンプルを記憶する。学習サンプルは、例えば、既知の検出対象の画像から抽出された特徴量の集合である。サンプル記憶部124は、さらに、後述されるラベルを記憶していてもよい。例えば、識別辞書学習装置110の管理者が、学習サンプルをあらかじめサンプル記憶部124に格納しておけばよい。例えば、識別辞書学習装置110の管理者は、さらに、ラベルを、あらかじめサンプル記憶部124に格納しておけばよい。
The
次に、本実施形態の詳細についての理解を容易にするため、学習時におけるラベルの設定について先に説明する。 Next, in order to facilitate understanding of details of the present embodiment, label setting during learning will be described first.
本実施形態では、1つの学習サンプルが属するクラスは1つである。しかし、1つの学習サンプルに、全ポジティブ系クラス数分のラベルが設定される。ラベルは、後述されるように、学習時に用いられる。ラベルの値は、+1または−1である。ラベルは、学習サンプルが属するクラスの情報に基づいて、一意に決定される。ラベルは、学習サンプルの各々について、あらかじめ、決定されていればよい。ラベルは、学習サンプルの各々に、あらかじめ付与されていればよい。そして、学習サンプルの各々に付与されたラベルは、あらかじめ、例えばサンプル記憶部124に格納されていればよい。
In the present embodiment, one learning sample belongs to one class. However, labels for the number of all positive classes are set for one learning sample. The label is used during learning, as will be described later. The value of the label is +1 or −1. The label is uniquely determined based on the information of the class to which the learning sample belongs. The label may be determined in advance for each of the learning samples. The label may be given in advance to each learning sample. And the label provided to each learning sample should just be stored in the sample memory |
図3は、サンプル記憶部124が記憶するラベルの例を模式的に表す図である。図3に示す例のように、例えば、学習サンプルには、その学習サンプルが属するクラスのラベルとして、+1が設定される。また、学習サンプルには、その学習サンプルが属さないクラスのラベルとして、−1が設定される。図8に示す例では、例えば、サンプル番号が1及び2である学習サンプルは、ポジティブ系クラスであるクラス「Pos1」に属する。
図3に示す例では、サンプル番号が1及び2である学習サンプルは、ポジティブ系クラスの1つである、クラス「Pos1」に属する。サンプル番号が1及び2である学習サンプルに対して、それらの学習サンプルが属するクラス「Pos1」のラベルとして、+1のラベルが設定されている。その他のポジティブ系のクラス(「Pos2」と「Pos3」)及びネガティブクラス(「Neg」)に属する学習サンプルには、それらの学習サンプルが属しないクラス「Pos1」のラベルとして、−1のラベルが設定されている。
FIG. 3 is a diagram schematically illustrating an example of a label stored in the
In the example shown in FIG. 3, the learning samples whose sample numbers are 1 and 2 belong to the class “Pos1”, which is one of the positive classes. For learning samples whose sample numbers are 1 and 2, a label of +1 is set as the label of the class “Pos1” to which these learning samples belong. The learning samples belonging to other positive classes (“Pos2” and “Pos3”) and the negative class (“Neg”) have a label of −1 as a label of the class “Pos1” to which those learning samples do not belong. Is set.
初期化部111は、最適化指標係数テーブル記憶部121に保持される最適化指標係数の初期値を設定する。前述のように、学習サンプルが属するクラスと、その学習サンプルが分類されるポジティブ系クラスとの組み合わせに対して、1つの最適化指標係数が設定される。すなわち、2つのクラスの組み合わせに対して、1つの最適化指標係数が設定される。2つのクラスの組み合わせは、異なる2つのポジティブ系クラスの組み合わせ、ネガティブ系クラスとポジティブ系クラスとの組み合わせ、又は、同じポジティブ系クラスの組み合わせである。以下の説明において、異なる2つのポジティブ系クラスの組み合わせに対して設定される最適化指標係数を、「異なるポジティブ系クラス間の係数」とも表記する。また、2つのポジティブ系クラスの組み合わせを、「同系セット」とも表記する。ネガティブ系クラスとポジティブ系クラスとの組み合わせに対して設定される最適化指標係数を、「ポジティブ系クラス−ネガティブクラス間の係数」とも表記する。ポジティブ系クラスとネガティブクラスとの組み合わせを、「異系セット」とも表記する。同じポジティブ系クラスの組み合わせに対して設定される最適化指標係数を、「同じポジティブ系クラス間の係数」とも表記する。異なるポジティブ系クラス間の係数は、学習サンプルをいずれかのクラスに分類するクラス分類の誤りにおいて、学習サンプルが属するポジティブ系クラスと学習サンプルが分類されたポジティブ系クラスとの組み合わせの、最適化指標への寄与の大きさを表す。異なるポジティブ系クラス間の係数には、ポジティブ系クラス‐ネガティブクラス間の係数より小さい値が設定される。初期化部111は、異なるポジティブ系クラス間の係数の初期値として、例えば、0.0を設定すればよい。初期化部111は、ポジティブ系クラス‐ネガティブクラス間の係数として、例えば、1.0を設定すればよい。初期化部111は、同じポジティブ系クラス間の係数の初期値として、例えば、1.0を設定すればよい。
The
学習部112は、弱識別器の候補として、1つのポジティブ系クラスの集合Snをサポートし、1つの特徴量が入力である識別器を学習(すなわち作成)する。学習部112は、ポジティブ系クラスの集合Snと特徴量との組み合わせの各々について、弱識別器の候補として識別器を学習する。以下の説明において、弱識別器の候補としての識別器を学習することを、「弱識別器を学習する」とも表記する。学習部112が、ポジティブ系クラスの集合Snと特徴量との組み合わせの数と同じ回数、識別器の学習を繰り返すことによって、ポジティブ系クラスの集合Snと特徴量との組み合わせの数と同じ数の、弱識別器の候補が作成される。前述のように、弱識別器の学習は、弱識別器の候補として識別器を作成することである。具体的には、弱識別器の学習は、例えば、入力された学習サンプルの特徴量に基づいて出力値を計算するのに使用される、識別器のパラメータを求めることである。本実施形態の弱識別器として、ポジティブ系クラス毎に値を出力するさまざまな識別器を採用することができる。本実施形態の弱識別器は、例えば、以下の数2に示す計算式に従って出力値を計算する識別器であってもよい。以下では、数2に示す計算式に基づく弱識別器の候補の学習について説明する。
The
数2に示す式において、c(c=1, ... , NC)はポジティブ系クラスの番号であり、j(j = 1, ... , NJ)は特徴量が取りうる値の範囲が区切られた区間(ビン)の番号であり、hj cは弱識別器の出力値である。NCはポジティブ系クラスの数であり、NJはビンの数である。ポジティブ系クラスの数は、ポジティブ系クラスの集合Snに応じて定まる。ビンの構成は、特徴量の種類に応じてあらかじめ定められていればよい。ビンの数NJは、特徴量の種類によって異なっていてもよい。入力である特徴量が、番号がjであるビンに含まれる場合、弱識別器は、ポジティブ系クラスcに関する出力値として、hj cを出力する。関数δ(・)は、引数として与えた数式が真である場合、値が1であり、引数として与えた数式が偽である場合、値が0である関数である。記号iは、学習サンプルの番号であり、zi cは学習サンプルiに付与されている、ポジティブ系クラスcに関するラベルであり、xiは、弱識別器に入力される、学習サンプルiの特徴量を表す。Di cは、i番目の学習サンプルの、クラスcに関する重みである。Xjは、番号がjである、前述の、特徴量が取りうる値の範囲が区切られた区間(ビン)を表す。Snは、前述のように、番号がnであるクラスの集合を表し、εは小さな定数値である。数2及び後述される数3において、重みと関数δ(・)との間、及び、2つの関数δ(・)の間にある記号「・」は、掛け算を表す演算子である。
In the formula shown in
学習部112は、与えられた学習サンプル(すなわち、例えばサンプル記憶部124に格納されている全ての学習サンプル)を使用して、数2に示す式に従って、hj cを計算する。その場合、学習部112は、ポジティブ系クラスの集合Snに含まれるポジティブ系クラスに関する出力値hj cを、数2の上段の式に従って導出する。その結果、それぞれのビンについて、hj cが得られる。学習部112が算出する出力値hj cは、ポジティブ系クラスの集合Snに含まれるポジティブ系クラスにおいて共通である。従って、ポジティブ系クラスの集合Snに含まれるポジティブ系クラスに関して、NJ個のhj cが得られる。ポジティブ系クラスの集合Snに含まれるポジティブ系クラスに関する出力値hj cは、クラスに依存しないので、以下の説明において、「hj」とも表記される。以下の説明において、出力値hj cは、「スコア」又は「スコアhj c」とも表記される。また、学習部112は、数2の下段に示す式に従って、ポジティブ系クラスの集合Snに含まれないポジティブ系クラスの各々について、スコアhj cを計算する。集合Snに含まれないポジティブ系クラスのスコアhj cは、各ビンで共通である。従って、集合Snに含まれないポジティブ系クラス毎に、1つのスコアhj cが得られる。集合Snに含まれないポジティブ系クラスのスコアhj cとして、集合Snに含まれないポジティブ系クラスの数と同じ数のスコアhj cが得られる。集合Snに含まれないポジティブ系クラスに関する出力値hj cは、特徴量の区間に依存しない(ビンに依存しない)ので、以下の説明において、「hc」とも表記される。
The
以上のように、特徴量の種類と集合Snとの組み合わせについて、学習サンプルを使用してhj cを計算することが、前述の、弱識別器の候補としての、識別器の学習(すなわち生成)である。学習された識別器は、特徴量の種類を特定する情報と、集合Snを特定する情報と、計算された上述のhj cによって表される。 As described above, the combination of the set S n and types of features, using the learning samples to calculate the h j c, above, as a candidate of the weak classifier, learned classifier (i.e. Generation). The learned discriminator is represented by information for specifying the type of feature quantity, information for specifying the set Sn, and the above-described calculated h j c .
学習部112は、学習サンプルにおいて得られるいずれかの特徴量の種類と、ポジティブ系クラスの集合Snとの組合せの各々について、上述のように、例えば数2に示す式に従って、hj cを計算する。すなわち、学習部112は、特徴量の種類及びポジティブ系クラスの集合Snの組み合わせを順次選択しながら、選択された組み合わせについてのスコアhj cの計算を、可能な全ての組み合わせが選択されるまで繰り返せばよい。なお、後述されるように、指標計算部113は、学習サンプルにおいて得られる特徴量の種類のいずれかと、ポジティブ系クラスの集合Snとの組合せの各々について、スコアhj cを使用して、最適化指標を計算する。さらに、後述されるように、決定部114は、計算された最適化指標が最小である、特徴量と集合Snとの組み合わせを選択する。そして、決定部114は、選択した特徴量の種類を特定する情報と、選択した集合Snを特定する情報と、選択した特徴量の種類と集合Snとの組み合わせについて計算されたhj cとを、弱識別器を表すパラメータとして、識別辞書記憶部122に格納する。その際、決定部114は、集合Snに含まれるポジティブ系クラスについての、NJ個の、それぞれビンの番号jに関連付けられたスコアhj cを、例えば上述のルックアップテーブルの一部として、識別辞書記憶部122に格納すればよい。決定部114は、さらに、集合Snに含まれないポジティブ系クラスの各々について、ポジティブ系クラスの番号cに関連付けられたスコアhj cを、例えば上述のルックアップテーブルの一部として、識別辞書記憶部122に格納すればよい。
参考までに、以下では、本実施形態の識別辞書学習装置110による識別辞書の学習の結果を用いた、識別処理における弱識別について説明する。クラス集合Snに含まれるポジティブ系クラスのスコアを導出する際、弱識別器として動作する装置は、識別対象を観測することによって得られるサンプル(すなわち上述の識別データ)に基づいて導出される特徴量が含まれるビンを特定する。その装置は、例えば、前述の参照表(ルックアップテーブル)を参照することによって、特定したビンの番号jに関連付けられている、数2に示す上段の式に基づいて算出されたスコアを特定する。そのスコアが、前述のサンプルの弱識別の結果である、クラス集合Snに含まれる各ポジティブ系クラスのスコアである。その装置は、Snに含まれないポジティブ系クラスのスコアを、例えば、数2に示す下段の式に基づいて算出されたスコアを、前述の参照表において特定すればよい。このように、識別処理において、学習時に識別辞書記憶部122に格納した参照表を参照することによって、1つの弱識別の結果として各ポジティブ系クラスのスコアを求めることが出来る。
For reference, the weak classification in the identification process using the result of learning of the identification dictionary by the identification
以下では、数2に示す式に基づいてスコアを計算する具体的な処理の例について、詳しく説明する。集合Snに含まれるポジティブ系クラスについてのスコアを導出する際、学習部112は、特徴量の出現頻度を、サンプル重み付きでカウントすることによって、ラベル+1のヒストグラムとラベル−1のヒストグラムとを作成する。「ラベル+1のヒストグラム」は、集合Snに含まれるポジティブ系クラスに関するラベルが+1である学習サンプルの特徴量の、特徴量の区間毎の重み付き出現頻度を表すヒストグラムである。ラベル+1のヒストグラムは、「ラベル+1の重み付きヒストグラム」とも表記される。「ラベル−1のヒストグラム」は、集合Snに含まれるポジティブ系クラスに関するラベルが−1である学習サンプルの特徴量の、特徴量の区間毎の重み付き出現頻度を表すヒストグラムである。ラベル−1のヒストグラムは、「ラベル−1の重み付きヒストグラム」とも表記される。重み付き出現頻度は、特徴量の区間毎の、その特徴量の区間に特徴量が含まれる学習サンプルに付与されている重みの和である。ヒストグラムを作成する際、学習部112は、学習サンプルに付与されている重みを、重み記憶部123から読み出す。学習部112は、これらの2つのヒストグラムにおいて、特徴量の区間の設定を同じにする。学習部112は、これらの2つのヒストグラムを作成する際、特徴量を同じ範囲で区切る。さらに、学習部112は、これらの2つのヒストグラムの、特徴量の範囲が同じビンにおいて、カウントされた出現頻度の比の対数を、識別対象の特徴量がそのビンに含まれる場合の出力値として計算する。学習部112は、全ての特徴量の区間(例えば、ビンの番号jが1からNJまで)の出力値(すなわちスコア)を計算する。集合Snに含まれないポジティブ系クラスのスコアを導出する際、学習部112は、ラベルが+1である学習サンプルの重み付き個数と、ラベルが−1である学習サンプルの重み付き個数を計算する。学習部112は、さらに、前述の2種類のラベルの各々について計算した重み付き個数の比の対数を、出力値として計算する。集合Snに含まれないポジティブ系クラスのスコアは特徴量の区間には依存しない。
Below, the example of the specific process which calculates a score based on the formula shown in
図4A及び図4Bは、前述のヒストグラムの例を表す図である。図4Aは、は、ラベル+1の重み付きヒストグラムである。図4Bは、ラベル−1の重み付きヒストグラムである。通常のヒストグラムはサンプル1つにつき1を加算することによって計算されるのに対し、重み付きヒストグラムは、サンプル1つにつきそのサンプルに付与されている重みの値を加算することによって計算されるヒストグラムである。図4A及び図4Bに示すヒストグラムの縦軸は、重み付きの出現頻度を表す。図4A及び図4Bに示すヒストグラムの横軸は、特徴の値すなわち特徴量を表す。例えば、特徴量が0から255までの整数値であり、ヒストグラムのビン幅が5である場合、特徴量の区間は、0〜4、5〜9、…、245〜249、250以上、のように設定される。特徴量の区間の番号jは、例えば、特徴量の大きさに応じた昇順で付与される。上述の例では、特徴量の区間は、特徴量の大きさが小さい方から、X1、X2、X3、...、Xj、...、XJのように表される。ビンの番号はそのビンが表す特徴量の区間と同じ番号に設定される。
4A and 4B are diagrams illustrating examples of the above-described histogram. FIG. 4A is a weighted histogram with label +1. FIG. 4B is a weighted histogram for label-1. A normal histogram is calculated by adding 1 for each sample, whereas a weighted histogram is a histogram calculated by adding the weight values assigned to that sample for each sample. is there. The vertical axes of the histograms shown in FIGS. 4A and 4B represent weighted appearance frequencies. The horizontal axes of the histograms shown in FIGS. 4A and 4B represent feature values, that is, feature amounts. For example, when the feature value is an integer value from 0 to 255 and the bin width of the histogram is 5, the feature value interval is 0 to 4, 5 to 9, 245 to 249, 250 or more. Set to The number j of the feature amount section is given in ascending order according to the size of the feature amount, for example. In the above example, the feature of the section from the smaller size of the
学習部112は、例えば図4A及び図4Bに示すようなヒストグラムにおいて、番号jが同じビンの出現頻度の値の比の対数を計算することによって、出力値hjを算出すればよい。数2に従って計算される出力値hj cは、ラベルが+1である学習サンプルの出現頻度が高く、ラベルが−1である学習サンプルの出現頻度が低いほど、大きい。言い換えると、あるサンプルの特徴量が区間jの中に含まれる場合、集合Snに含まれるポジティブ系クラスに関する出力値hj cの値が大きければ、そのサンプルは、集合Snに含まれるいずれかのポジティブ系クラスに属する確率が高いといえる。
The
補足として、数2の意味についてさらに詳しく説明する。数2の上段の式は、学習サンプルの特徴量が得られている条件の下で、その学習サンプルがラベル+1クラスに属するらしい確率とラベル−1のクラスに属するらしい確率との比を計算する式に相当する。そして、数2の上段の式を計算することによって得られる値は、ラベル+1クラスに属するらしい学習サンプルほど高い値になる。なお、「ラベル+1クラス」は、学習サンプル付与されているラベルが+1であるポジティブ系クラスを表す。「ラベル−1クラス」は、学習サンプル付与されているラベルが−1であるクラスを表す。以下では、数2の上段の式が確率の比であると解釈できる理由を説明する。前述のラベル+1のヒストグラムのビンにおける重み付き出現頻度を、学習サンプルの重みの総和で除算することによって、ラベルが+1であるサンプルが、そのビンが割り当てられている区間に含まれる特徴値をとりうる尤度が得られる。同様に、前述のラベル−1のヒストグラムのビンにおける重み付き出現頻度を、学習サンプルの重みの総和で除算することによって、ラベルが−1であるサンプルが、そのビンが割り当てられている区間に含まれる特徴値をとりうる尤度が得られる。事前確率がどのラベルでも均しいと仮定した場合、統計学のベイズの公式より、以下が成り立つ。ラベル+1のヒストグラムの、学習サンプルの特徴量が含まれる区間に割り当てられているビンについて得られる尤度を、そのビンについての尤度の総和で除算することによって、その学習サンプルがラベル+1のクラスに属するらしい確率が得られる。同様に、ラベル−1のヒストグラムの、学習サンプルの特徴量が含まれる区間に割り当てられているビンについて得られる尤度を、そのビンについての尤度の総和で除算することによって、その学習サンプルがラベル−1のクラスに属するらしい確率が得られる。さらに、これらの確率の比を計算する場合、これらの確率の比を表す式において、分母側と分子側それぞれにある、前述の尤度の総和による除算がキャンセルされる。従って、これらの確率の比を表す式は、数2によって表される。
As a supplement, the meaning of
実用上は、学習サンプルの個数やバリエーションが十分でない場合、前記の重み付き出現頻度が数値的に0になる恐れがある。近接するビンの値から補間、または平滑化することによって、値が0になるリスクを低減できる。 In practice, when the number and variation of learning samples are not sufficient, the weighted appearance frequency may become numerically zero. By interpolating or smoothing from adjacent bin values, the risk of zero values can be reduced.
本実施形態の弱識別器は、前述の数2の代わりに、数3に示す計算式に従って出力値を計算する識別器であってもよい。数2は確率の比の対数を計算することに相当するのに対し、数3は確率の差分を計算することに相当する。数2に示す出力値hj cと同様に、数3に示す出力値hj cも、ラベルが+1であるサンプルの出現頻度が高く、ラベルが−1であるサンプルの出現頻度が低いほど、大きい。サンプルの特徴量が区間jに含まれる場合、出力値hj cの値が大きければ、そのサンプルの、クラスcに関するラベルが+1である確率が高いといえる。
The weak classifier of the present embodiment may be a classifier that calculates an output value according to the calculation formula shown in
指標計算部113は、弱識別器の候補の出力値に基づいて、その弱識別器の候補に関する最適化指標を計算する。指標計算部113は、弱識別器の候補の各々について、最適化指標を計算する。前述のように、入力として使用される特徴量と、サポートされるポジティブ系クラスの集合Snとの組み合わせ1つに対して、1つの弱識別器の候補が学習される。すなわち、弱識別器の候補は、入力として使用される特徴量と、サポートされるポジティブ系クラスの集合Snとの組み合わせに、一意に関連付けられる。最適化指標は、学習によって得られる弱識別器の候補の性能の程度を表す指標である。数4は、最適化指標の例を表す式である。指標計算部113は、例えば、数4に従って、最適化指標Lを計算する。最適化指標は、パターン認識の分野において、損失、又は交差エントロピー損失、等と呼ばれる指標に相当する。最適化指標Lが数4によって計算される場合、最適化指標Lが小さいほど、識別の精度が高い。
The
数4において、前述のように、cはポジティブ系クラスの番号であり、iは学習サンプルの番号である。NCはポジティブ系クラスの数であり、Nxは学習サンプルの数である。数4における値hi cは、サンプルiの特徴量が含まれる区間に割り当てられているビンjについての、弱識別器の候補による出力値hj cを表す。Ri cは、最適化指標係数である。最適化指標係数は、例えば、「弱識別器の候補が学習サンプルiをクラスcに分類すること」が、その弱識別器の候補の最適化指標に対して与える影響の大きさを表す。最適化指標係数Ri cは、係数記憶部121に格納されている。本実施形態では、最適化指標係数は、学習サンプルiが属するクラスと、その学習サンプルiが分類されたポジティブ系クラスcとによって定まる。以下の説明において、学習サンプルが属するクラスを「正しいクラス」と表記する。さらに、学習サンプルが分類されるクラスを、「分類クラス」または「分類結果のクラス」と表記する。係数記憶部121は、正しいクラスと分類クラスとの組み合わせの各々について、正しいクラスと分類クラスとの組み合わせに関連付けられている最適化指標係数Ri cを記憶していればよい。係数記憶部121は、例えば最適化指標係数テーブルの形態で、最適化指標係数Ri cを記憶していればよい。
In
図5A及び図5Bは、上述の最適化指標係数テーブルの例を表す図である。図5Aは、最適化指標係数テーブルの初期値の例を表す。図5Bに示すテーブルは、後述されるように更新された最適化指標係数テーブルの例である。図5Bは、最適化指標係数テーブルに含まれる最適化指標係数の各々の最大値の例を表す。 5A and 5B are diagrams illustrating examples of the above-described optimization index coefficient table. FIG. 5A shows an example of initial values of the optimization index coefficient table. The table shown in FIG. 5B is an example of an optimized index coefficient table updated as described later. FIG. 5B shows an example of the maximum value of each optimization index coefficient included in the optimization index coefficient table.
指標計算部113は、最適化指標Lを算出する際、例えば、最適化指標係数テーブルと学習サンプルが属するクラスとクラスcとに基づいて、最適化指標係数テーブルにおいて、最適化指標係数Ri cを特定すればよい。指標計算部113は、特定した最適化指標係数を係数記憶部121から読み出し、読み出した最適化指標係数を使用して、最適化指標を計算すればよい。
When calculating the optimization index L, the
指標計算部113は、例えば、特徴量とポジティブ系クラスの集合Snとの組み合わせから、1つの組み合わせを選択すればよい。そして、指標計算部113は、選択した組み合わせについて最適化指標Lを計算すればよい。指標計算部113は、特徴量とポジティブ系クラスの集合Snとの組み合わせの全てが選択されるまで、組み合わせの選択、及び、最適化指標Lの計算を繰り返せばよい。以上により、弱識別器の候補の各々について、最適化指標Lが計算される。
決定部114は、化指標計算部113が計算した最適化指標値Lが最も小さい、ポジティブ系クラスの集合Snと特徴量との組み合わせを特定する。決定部114は、特定した組み合わせに含まれる特徴量が入力であり、特定した組み合わせに含まれるポジティブ系クラスの集合Snをサポートする弱識別器の候補を、弱識別器として決定する。以下の説明において、弱識別器として決定された、弱識別器の候補(識別器)を、「決定された弱識別器」とも表記する。決定部114は、決定した弱識別器を、強識別器を構成する複数の弱識別器の集合を表す識別辞書に追加する。すなわち、決定部114は、弱識別器のパラメータを、識別辞書記憶部122に格納する。前述のように、弱識別器のパラメータは、前述のように、特徴量の種類を特定する情報と、特徴量に基づいて出力値を計算するのに使用されるパラメータと、ポジティブ系クラスの集合Snを特定する情報とを含む。決定部114は、前述のように、特徴量に基づいて出力値を計算するのに使用されるパラメータを、ルックアップテーブルとして、識別辞書記憶部122に格納してもよい。決定部114は、弱識別器のパラメータを識別辞書記憶部122に格納する際、識別辞書記憶部122に格納されている弱識別器のパラメータを上書きせずに、弱識別器のパラメータを識別辞書記憶部122内に追加する。
The
重み更新部115は、重み記憶部123に格納されている、学習サンプルに付与されている重みを、決定部114によって決定された弱識別器が出力する出力値hi cを使って更新する。重み更新部114は、例えば、数5に従って、各学習サンプルに付与されている重みを更新すればよい。具体的には、学習サンプルiの重みを更新する際、重み更新部115は、例えば、学習サンプルiの特徴量に基づいて計算される、決定部114によって決定された弱識別器の出力値hj cを計算する。重み更新部115は、計算されたhj cと、重み記憶部123に格納されている、学習サンプルiの重みDi cと、例えばサンプル記憶部124に格納されている、学習サンプルiに付与されているラベルzi cとに基づいて数5の左辺の値を計算する。重み更新部115は、重み記憶部123に格納されている、学習サンプルiの重みDi cを、計算した、数5の左辺の値によって上書きする。数4における記号eは、自然対数の底(すなわちネイピア数)である。
The
係数更新部116は、係数記憶部121に保持されている最適化指標係数を、例えば次の条件が満たされるように更新する。まず、1つ目の条件は、異なるポジティブ系クラス間の係数は、ポジティブ系クラス−ネガティブクラス間の係数を超えないことである。「異なるポジティブ系クラス間の係数」は、関連付けられている「正しいクラス」と「分類クラス」とが、異なる2つのポジティブ系クラスである、最適化指標係数である。「ポジティブ系クラス−ネガティブクラス間の係数」は、ネガティブクラスである正しいクラスと、ポジティブ系クラスである分類されたクラスとに関連付けられている最適化指標係数である。さらに、2つ目の条件は、異なるポジティブ系クラス間の係数は、係数更新部116による更新の度に、単調増加することである。係数更新部116は、異なるポジティブ系クラス間の係数が広義の単調増加(すなわち単調非減少)するように、更新を行ってもよい。係数更新部116は、異なるポジティブ系クラス間の係数を、例えばあらかじめ定められた規則(すなわちルール)に従って増加させればよい。識別辞書学習装置110ユーザは、異なるポジティブ系クラス間の係数が、1回の更新において増加する量(更新の大きさ)を設定することが可能であってもよい。
The
図6は、更新に伴う最適化指標係数の変化を模式的に表す図である。図6に示すグラフの横軸は、更新の回数(すなわち学習の繰り返しの回数t)を表す。図6に示すグラフの縦軸は、最適化指標係数の値を表す。図6に示すグラフ中の破線は、ポジティブ系クラス−ネガティブクラス間の最適化指標係数の推移を表す。図6に示すグラフにおいて、実線によって描かれている曲線は、異なるポジティブ系クラス間の最適化指標係数の推移を表す。異なるポジティブ系クラス間の最適化指標係数の初期値は、例えば0であればよい。係数更新部116は、学習の繰り返しによって、図6に示すように、異なるポジティブ系クラス間の最適化指標係数が極限値に漸近するように異なるポジティブ系クラス間の最適化指標係数を更新してもよい。係数更新部116は、学習の繰り返しによって、異なるポジティブ系クラス間の最適化指標係数が最大値に達するように、異なるポジティブ系クラス間の最適化指標係数を更新してもよい。図6に示す例は、係数更新部116が、ポジティブ系クラス間の係数が、シグモイド関数従って単調増加するよう更新した場合の、異なるポジティブ系クラス間の最適化指標係数の推移の例を表す。シグモイド関数は、例えば以下の数6によって表される関数である。
FIG. 6 is a diagram schematically illustrating a change in the optimization index coefficient associated with the update. The horizontal axis of the graph shown in FIG. 6 represents the number of updates (that is, the number of learning repetitions t). The vertical axis of the graph shown in FIG. 6 represents the value of the optimization index coefficient. The broken line in the graph shown in FIG. 6 represents the transition of the optimization index coefficient between the positive class and the negative class. In the graph shown in FIG. 6, a curve drawn by a solid line represents the transition of the optimization index coefficient between different positive classes. The initial value of the optimization index coefficient between different positive classes may be 0, for example. As shown in FIG. 6, the
係数更新部116は、学習の繰り返し(すなわち更新の回数)に応じて、tを所定量ずつ増加させればよい。係数更新部116は、そのtを使用して、最適化指標係数を算出すればよい。ユーザは、例えば、数6のa及びbを、例えば独立に、増加又は減少させることによって、増加の度合いなどを設定すればよい。異なるポジティブ系クラス間の最適化指標係数は、異なる2つのポジティブ系クラスの組み合わせによらず同一であってもよい。異なるポジティブ系クラス間の最適化指標係数は、異なる2つのポジティブ系クラスの組み合わせに応じて異なっていてもよい。例えば、それぞれのポジティブ系クラスが物体(例えば顔)の異なる姿勢に割り当てられている場合、異なる2つのポジティブ系クラスの間の、物体の姿勢の角度の差が大きいほど、大きな最適化指標係数を割り当てられていればよい。その場合、顔の姿勢について大きく誤った分類が起きにくいように学習を行うことができる。例えば、図6において実線によって描かれている3本の曲線は、顔の姿勢の角度差に応じた係数の推移の例を表す。
The
更新設定部117は、異なるポジティブ系クラス間の係数を増加させる規則(すなわちルール)を、例えば、端末装置140から受信する。更新設定部117は、異なるポジティブ系クラス間の係数を増加させる規則(ルール)を表すパラメータを、端末装置140から受信すればよい。異なるポジティブ系クラス間の係数を増加させる規則(ルール)を表すパラメータは、例えば、上述の、シグモイド関数のパラメータである、a及びbの少なくともいずれかである。識別辞書学習装置110のユーザは、端末装置140を操作することによって、異なるポジティブ系クラス間の係数を増加させる規則(ルール)を表すパラメータを入力すればよい。
The
次に、本実施形態の識別辞書学習装置110の動作について、図面を参照して詳細に説明する。
Next, the operation of the identification
図7は、識別辞書学習装置110の動作の例を表すフローチャートである。
FIG. 7 is a flowchart illustrating an example of the operation of the identification
以下の説明では、前述のようにNCはポジティブ系クラスの個数を表し、Nfは特徴量の数を表す。本発明の各実施形態では、特徴量は、特定の特徴量に限定されない。 In the following description, as described above, N C represents the number of positive classes, and N f represents the number of features. In each embodiment of the present invention, the feature amount is not limited to a specific feature amount.
はじめに、初期化部111が、最適化指標係数テーブルを初期化する(ステップS111)。初期化部111は、図5Aに示す例のように、異なるポジティブ系クラスの組み合わせに関連付けられている最適化指標係数の初期値として、例えば0を設定すればよい。初期化部111は、異なるポジティブ系クラスの組み合わせに関連付けられている最適化指標係数の初期値として、十分小さい値(すなわち、ほぼ0である値)を設定してもよい。初期化部111は、他の最適化指標係数の初期値として、例えば1を設定すればよい。このあとの処理では、可能な全てのポジティブ系クラスの集合Snについて、後述する最適化指標が良好なものが探索される。全てのSnを特定する情報が、あらかじめ学習部112に与えられていてもよい。学習部112が、サンプル記憶部124に格納されている学習サンプルが属するクラスに基づいて、全てのSnを特定してもよい。
First, the
次に、学習部112は、ポジティブ系クラスの集合から、選択されていない、ポジティブ系クラスの集合Snを1つ選択する(ステップS112−1)。学習部112は、さらに、あらかじめ定められている特徴量の種類全てから、ステップS112−1において選択された集合Snに関して選択されていない、1つの特徴量の種類を選択する(ステップS112−2)。そして、学習部112は、上述のように、弱識別器の候補を学習する(ステップS112−3)。
Then, the
次に、最適化指標計算部113は、ステップS112−3において学習された弱識別器の候補に関する最適化指標Lを計算する(ステップS113−1)。
Next, the optimization
例えば学習部112は、全ての特徴量が選択されたか判定する(ステップS113−2)。全ての特徴量が選択されていない場合(ステップS113−2においてNo)、ステップS112−2からステップS113−2までの動作が繰り返される。全ての特徴量が選択された場合(ステップS113−2においてYes)、例えば学習部112は、全ての集合Snが選択されたか判定する(ステップS113−3)。選択されていない集合Snが存在すれば(ステップS113−3においてNo)、ステップS112−1からステップS113−3までの動作が繰り返される。ステップS112−1からステップS113−3までの動作は、全ての集合Snが選択されるまで(ステップS113−3においてYes)繰り返される。
For example, the
以上の動作では、ステップS112−2からS113−2までの動作は、特徴量の数Nfと同じ回数繰り返される。ステップS112−2からS113−2までの動作の繰り返しが、さらにポジティブ系クラスの集合Snの数と同じ回数繰り返される。これにより、特徴量と、ポジティブ系クラスの集合Snとの組み合わせ各々に関連付けられている弱識別器候補の、最適化指標値Lが計算される。 In the above operation, the operation from step S112-2 to S113-2 is repeated as many times as the number N f of the feature. Repeating operations in steps S112-2 to S113-2 is repeated more times as the number of sets S n positive system class. Thus, a feature quantity, a positive type of weak classifier candidates associated with each combination of the set S n classes, optimization index value L is calculated.
また、集合Snの数は、NC個から重複しないように選ばれる任意の個数の組合せの数である。そのため、ポジティブ系クラス数が多い場合、集合Snの数は膨大な数になる。従って、集合Sn全てについてステップS112−1からステップS113−3までの動作を繰り返す場合、特にステップS112−3及びステップS113−1の動作を繰り返す回数は膨大な数になる。そのため、すべてのSnについて上述の動作を繰り返すのではなく、以下のように、弱識別器の候補の探索範囲を限定してもよい。例えば、まず、学習部112は、1つの特徴量を選択してもよい。そして、学習部112は、1つのポジティブ系クラスからなる集合Snについて、弱識別器の候補の学習を行えばよい。指標計算部113は、学習部112によって学習された弱識別器の候補について、最適化指標の計算を行えばよい。学習部112は、1つのポジティブ系クラスからなる集合Snの中で、関連する弱識別器の候補の最も最適化指標Lが良好な(小さい)集合Snを特定すればよい。学習部112は、特定した集合Snに含まれるクラスを、集合Snを構成するクラスとして確定すればよい。学習部112は、同様に、確定したクラスと他の1つのポジティブ系クラスとによって構成される集合Snについて、弱識別器の候補の学習と、前述の、集合Snの特定と、集合Snを構成するクラスの確定とを繰り返せばよい。その場合、繰り返し回数はポジティブ系クラスの数NCにほぼ比例する。そのため、識別辞書学習装置110は、少ない繰り返し回数で、近似解(すなわち近似的な最小の最適化指標を持つ弱識別器の候補)を見つけることができる。
Further, the number of sets S n is the number of combinations of any number that is selected so as not to overlap the N C-number. Therefore, if positive system the number of classes is large, the number of sets S n is a huge number. Thus, if the repeated operation of all the set S n from step S112-1 to step S113-3, the number becomes huge number, especially repeats the operations of steps S112-3 and step S113-1. Therefore, instead of the above-described operation is repeated for all S n, as follows, may be limited to search range of candidate weak classifiers. For example, first, the
次に、決定部114が、弱識別器の候補の中で、ステップS114の動作において求められた最適化指標値Lが最も小さい弱識別器の候補を、弱識別器として決定する(ステップS114)。決定部114は、決定した弱識別器を、識別辞書記憶部122に格納されている識別辞書(すなわち、決定した弱識別器の集合)に追加する。最適化指標値Lが最も小さい弱識別器の候補の選択は、最適化指標値Lが最も小さい、特徴量の種類とポジティブ系クラスの組合せSnとを選択することである。決定された弱識別器は、その弱識別器がサポートする集合Snに含まれるポジティブ系クラスの各々について、入力である、選択された種類の特徴量に基づいて同一の出力値を出力する。これは、言い換えれば、ポジティブ系クラスの組み合わせSnに属するクラス間では、弱識別器(と特徴量)が共有されていると解釈することもできる。決定部114は、採用された弱識別器のパラメータを、識別辞書記憶部122に格納されている、識別辞書(すなわち、決定された弱識別器のパラメータの集合)に追加する。具体的には、決定部114は、学習サンプルの特徴量を特定する情報と、弱識別器の出力値を得るのに使用する参照表と、弱識別器がサポートするポジティブ系クラスの集合とを、識別辞書記憶部122に格納されている識別辞書に追加する。
Next, the
次に、重み更新部115は、学習サンプルにクラス別に付与されている重みを更新する(ステップS115)。
Next, the
次に、係数更新部116は、例えば最適化指標係数テーブルの形態で係数記憶部121に格納されている最適化指標係数を更新する(ステップS116)。
Next, the
次に、学習部112は、学習を終了するか判定する終了判定を行う(ステップS117)。ステップS117における終了判定において学習部112が学習処理を終了すると判定する条件は、例えば、収容判定の回数が所定の回数を超えることであってもよい。学習部112が学習処理を終了すると判定する条件は、決定された弱識別器に基づく強識別器の最適化指標Lの、最後に決定された弱識別器が追加されない強識別器の最適化指標からの減少量が所定の閾値を下回ることであってもよい。また、学習部112が学習処理を終了すると判定する条件は、あらかじめ用意された、学習用データを含まない、評価用サンプルの集合である評価用データセットに対する、強識別器の識別の精度が、所定の基準に達することであってもよい。学習部112は、評価用データセットを、決定された弱識別器に基づく強識別器に識別させることによって得られる、最適化指標Lの絶対値または識別誤り率によって、識別の精度を判定してもよい。学習処理の終了が判定されない場合(ステップS117−1においてNo)、識別辞書学習装置110は、ステップS111からS117−1までの動作をさらに繰り返す。学習処理の終了が判定された場合(ステップS117−1においてYes)、図7に示す識別辞書学習装置110の動作は終了する。
Next, the
次に、本実施の形態の効果について説明する。 Next, the effect of this embodiment will be described.
本実施形態には、外観のバリエーションが大きい物体が識別の対象である場合における、外観のバリエーションが小さい場合と比較した、識別精度の低下を抑制しながら、識別時間を短縮できる識別辞書を作成できるという効果がある。 In this embodiment, it is possible to create an identification dictionary that can shorten the identification time while suppressing a decrease in identification accuracy as compared with a case where an object having a large appearance variation is a target of identification compared to a case where the appearance variation is small. There is an effect.
その理由は、係数更新部116が、弱識別器が追加されるのに応じて、最適化指標係数を更新するからである。最適化指標係数は、学習サンプルが属するクラスと、その学習サンプルが分類されたクラスとの組み合わせの、最適化指標への寄与の大きさを表す。学習時において、最適化指標に基づいて識別の精度が最も高い弱識別子が選択される。従って、最適化指標係数は、その最適化指標係数が付与される、2つのクラスの組み合わせにおいて、その2つのクラス間の識別の精度の向上が、学習時において重視される度合いを表す。係数更新部116は、弱識別器を順次選択する過程において、2つのクラス間の識別の精度を重視する度合いに応じて、その2つのクラスに付与される最適化指標係数を更新することができる。従って、係数更新部116による最適化指標係数の更新によって、例えば、序盤では、ネガティブクラスに属する学習サンプルとそれ以外の学習サンプルとを識別する精度が、他の弱識別器の候補と比較して高い識別器の候補を、弱識別器に決定することができる。同様に、係数更新部116による最適化指標係数の更新によって、後の段階では、異なるポジティブ系クラス間の識別精度が、他の弱識別器の候補より高い弱識別器の候補を、弱識別器に決定することができる。本実施形態の識別辞書学習装置110によって以上のようにして得られた識別辞書を使用する、物体を検出する処理において、決定された順に弱識別器を使用することによって、次の効果が得られる。識別処理の序盤では、ネガティブクラスに属するサンプルと他のサンプルとを精度よく識別できる。すなわち、外観のバリエーションが小さい場合と比較した、外観のバリエーションが大きい物体の識別精度の低下を抑制することが可能である。さらに、サンプルがネガティブクラスに属すると識別された場合、残りの識別処理を省略することができる。従って、残りの識別処理を省略しない場合と比較して、物体を検出する処理(すなわち、サンプルが物体を観測することによって得られたサンプルであるか否かを判定する処理)を高速化することができる。すなわち、識別処理を省略しない場合と比較して、識別処理に要する時間を削減することができる。上述の場合、さらに、識別処理が進むに従って、異なるポジティブクラスに属するサンプルの識別精度が向上する。
The reason is that the
上述の、各特許文献及び各非特許文献に記載されている技術では、上述の本実施形態の効果を得ることはできない。それらの技術では、ポジティブ系クラスとネガティブクラスとの分類と、ポジティブ系クラス間のそれぞれの分類について、どれの精度をどの程度重視して学習するかという優先度合いを設定することが困難である。または、それらの技術では、その優先度合いが固定である。上述のように、例えば最適化指標係数により、分類精度の優先度合いを設定することによって、上述の本実施形態の効果が得られる。分類精度の優先度合いを設定することができない場合、上述の本実施形態の効果を得ることは困難である。 With the techniques described in each of the above-mentioned patent documents and non-patent documents, the effect of the above-described embodiment cannot be obtained. With these techniques, it is difficult to set a priority level for which accuracy is to be learned and how much importance is assigned to the classification between the positive class and the negative class and the classification between the positive classes. Or in those techniques, the priority is fixed. As described above, for example, by setting the priority of the classification accuracy by the optimization index coefficient, the effect of the above-described embodiment can be obtained. When the priority of classification accuracy cannot be set, it is difficult to obtain the effect of the above-described embodiment.
以下では、本実施形態の効果について、さらに詳しく説明する。 Below, the effect of this embodiment is demonstrated in more detail.
本実施形態の識別辞書学習装置110は、ネガティブクラスとポジティブ系クラスとの分類の優先度合いを設定できる初期化部111を備える。本実施形態の識別辞書学習装置110は、さらに、最適化指標係数を学習の繰り返し番号mの値が大きくなるにつれて変化させる係数更新部116を備える。本実施形態の識別辞書学習装置110は、さらに、更新された最適化指標係数に応じて強識別器を学習できる学習部112、指標計算部113、決定部114、及び、重み更新部115を備える。そのため、識別辞書学習装置110が学習した識別辞書を用いることによって、高い検出率かつ高速な物体検出処理を実現できる。
The identification
以下では、この効果が得られる理由について説明する。 Hereinafter, the reason why this effect is obtained will be described.
本実施形態では、最適化指標係数を用いることで、ポジティブ系クラス−ネガティブクラス間の識別と、ポジティブ系クラス間のそれぞれの識別と、について精度の優先度合いを自由に設計できる。異なるポジティブ系クラス間の係数にポジティブ系クラス−ネガティブクラス間の係数より小さい値が設定される場合、ポジティブ系クラスのサンプルを他のポジティブ系クラスに誤分類した場合の最適化指標(損失)が小さくなる。そして、その場合、ポジティブ系クラス−ネガティブクラス間の識別を重視した学習が行われる。 In the present embodiment, by using the optimization index coefficient, it is possible to freely design the accuracy priority for the identification between the positive class and the negative class and the identification between each positive class. When the coefficient between different positive classes is set to a value smaller than the coefficient between positive class and negative class, the optimization index (loss) when misclassifying a positive class sample into another positive class Get smaller. In this case, learning is performed with an emphasis on discrimination between positive class and negative class.
例えば、異なるポジティブ系クラス間の係数を単調増加するように更新を繰り返すことによって、更新の回数が増加するのに応じて、ポジティブ系クラス間の識別も重視した学習が行われるようになる。その学習の結果を使用して識別処理を行う装置等は、学習において決定された順で、弱識別器の出力値を算出すればよい。そして、その装置等は、弱識別器の出力値を算出する度に、算出した弱識別器の出力値を強識別器の出力値に加算する、強識別器の出力値の更新を行えばよい。その装置等は、強識別器の出力値を更新する度に、更新した、強識別器の出力値に基づいて、サンプルがいずれのクラスに属するか識別する識別処理を行えばよい。 For example, by repeating the update so as to monotonously increase the coefficient between different positive classes, learning with an emphasis on identification between positive classes is performed as the number of updates increases. An apparatus that performs identification processing using the learning result may calculate the output value of the weak classifier in the order determined in the learning. Then, each time the device or the like calculates the output value of the weak classifier, the device or the like may update the output value of the strong classifier by adding the calculated output value of the weak classifier to the output value of the strong classifier. . Each time the device or the like updates the output value of the strong classifier, the device or the like may perform identification processing for identifying which class the sample belongs to based on the updated output value of the strong classifier.
このように学習及び識別処理が行われる場合、識別処理における序盤(例えば、数1のmが小さい時)では、ポジティブ系クラス全体とネガティブクラスとの間の識別が優先される。そのため、mが小さい段階における強識別器の出力値に基づいて、サンプルがいずれのクラスに属するかを識別する識別処理を行う場合、ネガティブクラスに属するサンプルの識別精度が高くなる。この場合、識別処理を行う上述の装置は、例えば、強識別器の出力値を更新する度に、あらかじめ定められた基準に基づいて、サンプルがネガティブクラスに属するか否かを判定すればよい。上述の装置は、識別の対象であるサンプルがネガティブクラスに属すると判定した場合、残りの識別処理を省略すればよい。上述のように学習を行うことによって、mが小さい段階であっても、サンプルがネガティブクラスに属するか否かを判定する識別処理において、高い精度が得られる。従って、識別処理を行う装置等を、以上のように設計することによって、検出率の低下を低く抑えつつ、検出処理を大幅に高速にすることができる。しかも、識別処理が、mが大きい段階まで実行されれば、ポジティブ系クラス間の識別精度も高くなる。
When learning and identification processing are performed in this way, at the beginning of the identification processing (for example, when m in
なお、本実施形態では、2つのポジティブ系クラスの組み合わせ毎に、ポジティブ系クラス間の識別の優先度合いもそれぞれ設定できる。そのため、最終的に得られるポジティブ系クラス間の識別精度の調整も可能である。例えば、ポジティブ系クラスとして顔の方向(正面方向、斜め方向、横方向)がそれぞれ割り当てられている場合、本来の顔の向きは連続的な変化であるので、正面方向と斜め方向の境界は曖昧である。そのため、正面方向クラスと斜め方向クラス間の優先度合いが下がるように最適化指標係数を調整することによって、顔向きの大まかな分類に適した識別器を実現できる。例えば、識別器が、運転中における人物の脇見の検知に使用される場合、顔の方向が正面方向である場合に、顔の方向が斜め方向であると判定することは、顔の方向が横方向である場合に、顔の方向が正面方向であると判定する程の大きな誤りでない。そのため、以上のように調整できることには利点がある。 In the present embodiment, for each combination of two positive classes, the priority of identification between positive classes can also be set. Therefore, it is possible to adjust the discrimination accuracy between the positive classes finally obtained. For example, if the face direction (front direction, diagonal direction, horizontal direction) is assigned as a positive class, the original face direction is a continuous change, so the boundary between the front direction and the diagonal direction is ambiguous. It is. Therefore, by adjusting the optimization index coefficient so that the priority between the front direction class and the diagonal direction class is lowered, a discriminator suitable for rough classification of the face direction can be realized. For example, when the discriminator is used to detect a person's looking aside while driving, determining that the face direction is diagonal when the face direction is the front direction is that the face direction is horizontal. In the case of the direction, the error is not so large as to determine that the face direction is the front direction. Therefore, there is an advantage in being able to adjust as described above.
<第2の実施形態>
次に、本発明の第2の実施の形態について、図面を参照して詳細に説明する。本実施形態に係る物体検出システムは、本発明の第1の実施の形態に係る識別辞書学習装置110によって学習された識別辞書を用いた物体検出システムの例である。
<Second Embodiment>
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. The object detection system according to the present embodiment is an example of an object detection system using an identification dictionary learned by the identification
図9は、本実施形態に係る物体検出システム300の構成を表すブロック図である。
FIG. 9 is a block diagram showing the configuration of the
図9を参照すると、本実施形態の物体検出システム300は、物体検出装置310と記憶装置120徒を含む。物体検出システム300は、さらに、識別辞書学習装置110を含んでいてもよい。本実施形態の識別辞書学習装置110及び記憶装置120は、第1の実施形態の識別辞書学習装置110及び記憶装置120と同じである。従って、識別辞書学習装置110及び記憶装置120に関する詳細な説明は省略する。なお、記憶装置120が含む識別辞書記憶部122は、識別辞書学習装置110によって学習された識別辞書を記憶する。本実施形態において、物体検出システム300は、識別システム300とも表記される。
Referring to FIG. 9, the
物体検出装置310は設定部311と、抽出部312と、弱識別部313と、識別スコア計算部314と、判定部315とを有する。図9において、識別辞書学習装置110及び物体検出装置310は、別の装置として描かれている。しかし、同じ装置が、識別辞書学習装置110及び物体検出装置310として動作してもよい。さらにその同じ装置が、記憶装置120を含んでいてもよい。
The
設定部311には、物体が撮影された画像が入力される。設定部311は、その画像を受信する。そして、設定部311は、受信した画像の、探索窓として設定されていない部分を含む一部分に、探索窓を設定する。設定部311は、受信した画像の全ての部分が少なくとも1回探索窓に設定されるまで、探索窓として設定する部分を変えながら、探索窓の設定を繰り返せばよい。探索窓に含まれる部分画像が、前述のサンプルである。
An image obtained by photographing an object is input to the
抽出部312は、探索窓に設定された部分画像において、特徴量を抽出する。抽出部312は、少なくともいずれかの弱識別器によって使用される、全ての特徴量を抽出すればよい。弱識別器の各々が使用する特徴量は、識別辞書記憶部122が記憶する識別辞書に記録されている。抽出部312は、例えば、決定された順番が早い弱識別器から順に、弱識別器を選択してもよい。そして、抽出部312は、選択した弱識別器が使用する特徴量が抽出されていない場合、その特徴量を抽出してもよい。
The
弱識別部313は、抽出された特徴量を使用して、識別辞書に記録されている弱識別器の出力値を計算する。弱識別部313は、抽出された特徴量を使用して、識別辞書に記録されている弱識別器の各々の出力値を計算してもよい。弱識別部313は、抽出された特徴量を使用して、識別辞書に記録されている弱識別器のうち、抽出部312によって選択された弱識別器の出力値を計算してもよい。
The
スコア計算部314は、計算された、弱識別器の各々の出力値に基づいて、強識別器の出力値を計算してもよい。スコア計算部314は、計算された、弱識別器の各々の出力値に基づいて、強識別器の出力値(すなわち識別スコア)を計算してもよい。
The
判定部315は、探索窓に含まれる画像の領域に含まれる部分画像が、物体であるか非物体であるかを判定する。すなわち、判定部315は、識別スコアに基づいて、探索窓に含まれる部分画像が、ネガティブクラスに属するか否かを判定する。判定部315は、探索窓に含まれる部分画像が、ネガティブクラスに属すると判定した場合、その探索窓に関する識別を打ち切ると判定する。
The
図10は、本実施形態の物体検出装置310の動作の例を表すフローチャートである。
FIG. 10 is a flowchart showing an example of the operation of the
まず、設定部311は、画像中の一部分に探索窓を設定する(ステップS311)。設定部311は、探索窓として設定されていない部分を含む、画像の、例えば所定サイズである一部を、探索窓に設定する。設定部311は、図10に示すステップS311からステップS316−2までの動作の繰り返しにおいて、例えば、画像中をラスタスキャンするように探索窓を移動させながら、探索窓を設定すればよい。設定部311は、探索窓が、前に設定した探索窓と重ならないように、所定の間隔で探索窓を設定してもよい。設定部311は、探索窓が、前に設定した探索窓と重なるように、所定の間隔で探索窓を設定してもよい。以下の説明において、物体検出装置310は、設定した探索窓に含まれる部分画像が、物体の画像であるか否かを判定する。物体の画像のクラスが、ポジティブ系クラスである、物体の画像ではない画像(非物体の画像)のクラスが、ネガティブクラスである。
First, the
物体検出装置310は、後述のステップS312−1からステップS315までの動作を通して、探索窓が設定された部分の画像が、特定の物体であるか否かを識別する。特にステップS312−3及びステップS313は、1つの弱識別器による弱識別の処理に相当する。選択された弱識別器による出力値を計算する、ステップS312−3及びステップS313の動作は、選択される弱識別器を変更しながら、繰り返される。得られる弱識別器の出力値は、ステップS314において、順次、強識別器の出力値に足される。結果として強識別器の出力値(識別スコア)が計算される。数1が、この識別スコアの計算式である。以下では、以上についてさらに詳しく説明する。
The
抽出部312は、選択されていない弱識別器の中で、決定された順番が最も早い弱識別器を選択する(ステップS312−1)。抽出部312は、選択された弱識別器の入力である特徴量が抽出されているか判定する(ステップS312−2)。選択された弱識別器の入力である特徴量が抽出されている場合(ステップS312−2においてYes)、抽出部312は、その特徴量を抽出しなくてよい。選択された弱識別器の入力である特徴量が抽出されていない場合(ステップS312−2においてNo)、抽出部312は、その特徴量を抽出する(ステップS312−3)。弱識別器の入力である特徴量の種類を特定する情報は、識別辞書記憶部122に格納されている。
The
次に、弱識別部313が弱識別の計算を行う(ステップS313)。すなわち、弱識別部313は、選択された弱識別器の出力値を計算する。その際、弱識別部313は、選択された弱識別器の入力である特徴量に基づいて、識別辞書記憶部122に格納されている、弱識別器の出力値の計算に使用される上述のルックアップテーブルを用いて、選択された弱識別器の出力値を求めればよい。なお、弱識別部313は、弱識別器の出力値として、ポジティブ系クラス別の出力値を計算する。
Next, the
次に、スコア計算部314は、計算した、選択された弱識別器の出力値を、強識別器の出力値に加算する(ステップS314)。全ての弱識別器が選択されている場合、ステップS314において、数1に示す総和(すなわち最終的な識別スコア)Hcが、各ポジティブ系クラスcについて計算される。選択されていない弱識別器が存在する場合、ステップS314において、数1に示す識別スコアの演算の中間結果Hcが、各ポジティブ系クラスcについて計算される。識別スコアの演算の中間結果は、弱識別器の一部の出力値の和を表す。
Next, the
次に、判定部315は、探索窓に含まれる部分画像に関する識別処理を打ち切るか否かを判定する打ち切り判定を行う(ステップS315)。判定部315は、計算したHcの値に基づいて、探索窓に含まれる部分画像がネガティブクラスに属するか否かを判定する。例えば、Hcの値が大きいほど、探索窓に含まれる部分画像が物体の画像らしい場合、判定部315は、Hcの値が所定の閾値より小さい場合、探索窓に含まれる部分画像がネガティブクラスに属すると判定すればよい。探索窓に含まれる部分画像がネガティブクラスに属すると判断された場合、識別処理をそれ以上続行する必要はない。判定部315は、探索窓に含まれる部分画像がネガティブクラスに属すると判定した場合、その探索窓に関する識別処理を打ち切る(すなわち「打ち切り」)と判定する(ステップS316−1においてYes)。その場合、画像の全ての部分が探索窓として設定されていなければ(ステップS316−2においてNo)、物体検出装置310は、再び、ステップS311以降の動作を行う。すなわち、物体検出装置310による処理は、次の探索窓についての処理に移る。「打切り」と判定されなかった場合(ステップS316−1においてNo)、物体検出装置310は、再び、ステップS312−1以降の動作を行う。すなわち、物体検出装置310は、次の弱識別器についての計算を行う。なお、前述のようにHcはクラスc毎に計算される。従って、S315において、判定部315は、ステップS314において計算されたHcの最大値maxc(Hc)と、所定の閾値とを比較すればよい。また、S315において使用される閾値は、クラスc毎に、あらかじめ実験的に求められた、部分画像が明らかにネガティブクラスに属すると判断できる値が設定されていてもよい。その場合、判定部315は、ステップS314において計算されたHcの最大値maxc(Hc)と、クラスcに関して実験的に求められた閾値とを比較すればよい。そして、判定部315は、比較の結果、探索窓に含まれる部分画像がネガティブクラスに属すると判定した場合、その探索窓に関する識別処理を打ち切ると判定すればよい。
Next, the
また、判定部315は、「打ち切り」と判定されず、かつ、Hcの値が、ポジティブ系クラスの閾値としてあらかじめ設定されている閾値より大きい場合、判定部315は、探索窓に含まれる部分画像がポジティブ系クラスに属すると判定すればよい。すなわち、判定部315は、設定されている探索窓に物体が検出されたと判定すればよい。複数のポジティブ系クラスが存在する場合、複数のクラスcのHcがポジティブ系クラスの閾値を越えた場合、判定部315は、探索窓に含まれる部分画像は、Hcの値が最も大きいクラスcに属すると判定すればよい。Hcがポジティブ系クラスの閾値を越えたポジティブ系クラスが存在しない場合、判定部315は、探索窓に含まれる部分画像がネガティブクラスに属すると判定すればよい。すなわち、判定部315は、探索窓に物体は検出されないと判定すればよい。
In addition, when the
<第3の実施形態>
次に、本発明の第3の実施形態について、図面を参照して詳細に説明する。第3の実施形態は、上述した各実施形態に共通する概念を表す。
<Third Embodiment>
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. The third embodiment represents a concept common to the above-described embodiments.
図11は、本実施形態の識別辞書学習装置100Aの構成を表すブロック図である。 FIG. 11 is a block diagram showing the configuration of the identification dictionary learning device 100A of the present embodiment.
図11を参照すると、本実施形態の識別辞書学習装置100Aは、複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習部112と、誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算部113と、学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定部114と、前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新部116と、を備える。
Referring to FIG. 11, the identification dictionary learning device 100A of the present embodiment includes a plurality of classifiers that perform class classification that classifies data values belonging to any of a plurality of classes into any of the plurality of classes. The classification accuracy of the class classification of the combination of the
<他の実施形態>
識別辞書学習システム100、識別辞書学習装置110、識別辞書学習装置100A、記憶装置120、物体検出システム300、及び物体検出装置310は、それぞれ、コンピュータ及びコンピュータを制御するプログラム、専用のハードウェア、又は、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することができる。
<Other embodiments>
The identification
図12は、識別辞書学習システム100、識別辞書学習装置110、識別辞書学習装置100A、記憶装置120、物体検出システム300、及び物体検出装置310を実現することができる、コンピュータ1000のハードウェア構成の一例を表す図である。図12を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記録媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記録媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記録媒体である。記憶装置1003が記録媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、端末装置140などにアクセスすることができる。プロセッサ1001は、記録媒体1005にアクセスすることができる。記録媒体1005には、コンピュータ1000を、識別辞書学習装置110、識別辞書学習装置100A、又は物体検出装置310として動作させるプログラムが格納されている。
FIG. 12 shows a hardware configuration of a
プロセッサ1001は、記録媒体1005に格納されている、コンピュータ1000を、識別辞書学習装置110、識別辞書学習装置100A、又は物体検出装置310として動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、識別辞書学習装置110、識別辞書学習装置100A、又は物体検出装置310として動作する。
The
初期化部111、学習部112、指標計算部113、決定部114、重み更新部115、係数更新部116、更新設定部117、設定部311、抽出部312、弱識別部313、スコア計算部314、及び、判定部315は、例えば、プログラムを記憶する記録媒体1005からメモリ1002に読み込まれた、各部の機能を実現することができる専用のプログラムと、そのプログラムを実行するプロセッサ1001により実現することができる。また、係数記憶部121、識別辞書記憶部122、重み記憶部123、及び、サンプル記憶部124は、コンピュータ1000が含むメモリ1002やハードディスク装置等の記憶装置1003により実現することができる。あるいは、初期化部111、学習部112、指標計算部113、決定部114、重み更新部115、係数更新部116、更新設定部117、係数記憶部121、識別辞書記憶部122、重み記憶部123、サンプル記憶部124、設定部311、抽出部312、弱識別部313、スコア計算部314、及び、判定部315の一部又は全部を、各部の機能を実現する専用の回路によって実現することもできる。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Moreover, although a part or all of said embodiment can be described also as the following additional remarks, it is not restricted to the following.
(付記1)
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
を備える識別辞書学習装置。
(Appendix 1)
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
An identification dictionary learning device comprising:
(付記2)
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
前記識別辞書学習装置は、さらに、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う初期化手段
を備える付記1に記載の識別辞書学習装置。
(Appendix 2)
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
The identification dictionary learning device further includes:
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. Initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of The identification dictionary learning device according to
(付記3)
前記初期化手段は、前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う
付記2に記載の識別辞書学習装置。
(Appendix 3)
The identification dictionary learning device according to
(付記4)
前記係数更新手段は、前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う
付記1乃至3のいずれかに記載の識別辞書学習装置。
(Appendix 4)
The identification dictionary learning device according to any one of
(付記5)
前記係数更新手段は、前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う
付記1乃至4のいずれかに記載の識別辞書学習装置。
(Appendix 5)
The coefficient updating means performs the updating so that the magnitude of the contribution of each of the related sets to the optimization index approaches the magnitude of the contribution of the different set to the optimization index. 4. The identification dictionary learning device according to any one of 4 above.
(付記6)
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信する更新設定手段を備え、
前記係数更新手段は、受信された前記ルールに従って前記更新を行う、
付記1乃至5のいずれかに記載の識別辞書学習装置。
(Appendix 6)
An update setting means for receiving the rule in updating the optimization index of at least one of the related sets;
The coefficient update means performs the update according to the received rule.
The identification dictionary learning device according to any one of
(付記7)
前記学習手段は、1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う
付記1乃至6のいずれかに記載の識別辞書学習装置。
(Appendix 7)
The learning means includes, for each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the combination and the plurality of learning samples. The identification dictionary learning device according to any one of
(付記8)
識別装置と、付記1乃至7のいずれかに記載の識別辞書学習装置と、を含み、
前記識別辞書学習装置は、
前記識別辞書記憶手段をさらに備え、
前記決定手段は、選択された前記弱識別器を前記識別辞書に追加し、
前記識別装置は、
前記データ値である識別サンプルを受信する設定手段と、
前記識別辞書に含まれる複数の前記弱識別器による前記識別サンプルの前記クラス分類の結果の各々を統合することにより、前記識別サンプルの前記クラス分類を行う判定手段と、
を備える、
識別システム。
(Appendix 8)
Including an identification device and the identification dictionary learning device according to any one of
The identification dictionary learning device includes:
Further comprising the identification dictionary storage means,
The determining means adds the selected weak classifier to the identification dictionary,
The identification device includes:
Setting means for receiving an identification sample which is the data value;
Determining means for classifying the classification sample by integrating each of the classification results of the classification sample by the plurality of weak classifiers included in the identification dictionary;
Comprising
Identification system.
(付記9)
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習し、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算し、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加し、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う、
識別辞書学習方法。
(Appendix 9)
A plurality of classifiers that perform classification that classifies data values belonging to any of a plurality of classes into any of the plurality of classes, and learning using a plurality of learning samples that are the data values,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class And calculating the optimization index for each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Adding to an identification dictionary which is a set of weak classifiers;
In response to the addition of the weak classifier, the optimization index coefficient is updated based on a rule.
Identification dictionary learning method.
(付記10)
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
さらに、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う
付記9に記載の識別辞書学習方法。
(Appendix 10)
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
further,
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. An initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of 9. The identification dictionary learning method according to 9.
(付記11)
前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う
付記10に記載の識別辞書学習方法。
(Appendix 11)
The identification dictionary learning method according to
(付記12)
前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う
付記9乃至12のいずれかに記載の識別辞書学習方法。
(Appendix 12)
The identification dictionary learning method according to any one of appendices 9 to 12, wherein the update is performed so that the magnitude of contribution of each of the related sets to the optimization index increases.
(付記13)
前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う
付記9乃至12のいずれかに記載の識別辞書学習方法。
(Appendix 13)
The update is performed such that the magnitude of the contribution to the optimization index of each of the related sets approaches the magnitude of the contribution to the optimization index of the heterogeneous set. Identification dictionary learning method.
(付記14)
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信し、
受信された前記ルールに従って前記更新を行う、
付記9乃至13のいずれかに記載の識別辞書学習方法。
(Appendix 14)
Receiving the rules in updating the optimization index of at least any of the cognate sets;
Performing the update according to the received rules;
The identification dictionary learning method according to any one of appendices 9 to 13.
(付記15)
1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う
付記9乃至14のいずれかに記載の識別辞書学習方法。
(Appendix 15)
For each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the weak identification is performed based on the combination and the plurality of learning samples. The identification dictionary learning method according to any one of supplementary notes 9 to 14, wherein learning of a vessel is performed.
(付記16)
コンピュータを、
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
して動作させる識別辞書学習プログラム。
(Appendix 16)
Computer
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
Identification dictionary learning program to be operated.
(付記17)
前記クラス分類は、前記認識対象から得られる前記データ値がいずれかに属する前記クラスである、複数のポジティブ系クラス、及び、前記認識対象から得られない前記データ値が属する前記クラスであるネガティブ系クラスのいずれかに、前記データ値を分類することであり、
コンピュータを、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う初期化手段と
して動作させる付記16に記載の識別辞書学習プログラム。
(Appendix 17)
The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
Computer
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. Initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of The identification dictionary learning program according to supplementary note 16, which is operated as a conversion means.
(付記18)
コンピュータを、
前記同系セットの各々の前記最適化指標への寄与が、無くなる又はほぼ無くなるように、前記初期化を行う前記初期化手段と、
して動作させる付記17に記載の識別辞書学習プログラム。
(Appendix 18)
Computer
The initialization means for performing the initialization so that the contribution to the optimization index of each of the cognate sets is eliminated or substantially eliminated;
The identification dictionary learning program according to appendix 17, which is operated as described above.
(付記19)
コンピュータを、
前記同系セットの各々の前記最適化指標への寄与の大きさが増加するように、前記更新を行う前記係数更新手段と、
して動作させる付記9乃至18のいずれかに記載の識別辞書学習プログラム。
(Appendix 19)
Computer
The coefficient updating means for performing the updating so that the magnitude of contribution to the optimization index of each of the cognate sets increases;
The identification dictionary learning program according to any one of appendices 9 to 18 that is operated as described above.
(付記20)
コンピュータを、
前記同系セットの各々の前記最適化指標への寄与の大きさが、前記異系セットの前記最適化指標への寄与の大きさに近づくように前記更新を行う前記係数更新手段と、
して動作させる付記9乃至19のいずれかに記載の識別辞書学習プログラム。
(Appendix 20)
Computer
The coefficient updating means for performing the updating so that the magnitude of the contribution to the optimization index of each of the related sets approaches the magnitude of the contribution of the heterogeneous set to the optimization index;
The identification dictionary learning program according to any one of appendices 9 to 19 that is operated as described above.
(付記21)
コンピュータを、
少なくともいずれかの前記同系セットの前記最適化指標の更新における前記ルールを受信する更新設定手段と、
受信された前記ルールに従って前記更新を行う前記係数更新手段と、
して動作させる付記9乃至20のいずれかに記載の識別辞書学習プログラム。
(Appendix 21)
Computer
Update setting means for receiving the rule in updating the optimization index of at least one of the related sets;
The coefficient updating means for performing the updating according to the received rule;
The identification dictionary learning program according to any one of appendices 9 to 20 that is operated as described above.
(付記22)
コンピュータを、
1つ以上の前記クラスを含むクラス集合と、前記学習サンプルに基づき導出される特徴量の種類との、異なる複数の組み合わせの各々について、当該組み合わせと前記複数の学習サンプルとに基づいて前記弱識別器の学習を行う前記学習手段と、
して動作させる付記9乃至21のいずれかに記載の識別辞書学習プログラム。
(Appendix 22)
Computer
For each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the weak identification is performed based on the combination and the plurality of learning samples. The learning means for learning the vessel;
The identification dictionary learning program according to any one of appendices 9 to 21 that is operated as described above.
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
本発明によれば、映像から特定の物体を検出する用途に適用できる。特に画像上での見た目のバリエーションが大きな物体である、例えば、人物の頭部、顔、人体、自動車等に関する検出用途に、実用的に適用できる。 INDUSTRIAL APPLICABILITY According to the present invention, the present invention can be applied to use for detecting a specific object from an image. In particular, the present invention can be applied practically to detection applications relating to objects that have large variations in appearance on images, for example, human heads, faces, human bodies, automobiles, and the like.
100 識別辞書学習システム
110 識別辞書学習装置
110A 識別辞書学習装置
111 初期化部
112 学習部
113 指標計算部
114 決定部
115 重み更新部
116 係数更新部
117 更新設定部
120 記憶装置
121 係数記憶部
122 識別辞書記憶部
123 重み記憶部
124 サンプル記憶部
140 端末装置
300 物体検出システム
310 物体検出装置
311 設定部
312 抽出部
313 弱識別部
314 スコア計算部
315 判定部
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記録媒体
DESCRIPTION OF
Claims (10)
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
を備える識別辞書学習装置。 Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
An identification dictionary learning device comprising:
前記識別辞書学習装置は、さらに、
異なる2つの前記ポジティブ系クラスの前記組み合わせである同系セットの前記最適化指標への寄与の大きさが、前記ポジティブ系クラス及び前記ネガティブ系クラスの前記組み合わせである異系セットの前記最適化指標への寄与の大きさより小さくなるよう、前記複数の最適化指標係数の各々の、前記更新が行われる前に前記最適化指標の導出に使用される値である初期値を設定する初期化を行う初期化手段
を備える請求項1に記載の識別辞書学習装置。 The class classification includes a plurality of positive classes to which the data value obtained from the recognition target belongs, and a negative system to which the data value not obtained from the recognition target belongs. Classifying the data values into one of the classes,
The identification dictionary learning device further includes:
The magnitude of the contribution to the optimization index of the in-kind set that is the combination of two different positive class is the optimization index of the different set that is the combination of the positive class and the negative class. Initialization is performed to set an initial value of each of the plurality of optimization index coefficients, which is a value used for deriving the optimization index, before the update is performed so as to be smaller than the magnitude of the contribution of The identification dictionary learning device according to claim 1, further comprising:
請求項2に記載の識別辞書学習装置。 The identification dictionary learning device according to claim 2, wherein the initialization unit performs the initialization so that the contribution to the optimization index of each of the related sets is eliminated or almost eliminated.
請求項1乃至3のいずれかに記載の識別辞書学習装置。 4. The identification dictionary learning device according to claim 1, wherein the coefficient updating unit performs the updating so that a magnitude of contribution to the optimization index of each of the related sets is increased.
請求項1乃至4のいずれかに記載の識別辞書学習装置。 2. The coefficient updating unit performs the updating so that the magnitude of contribution of each of the related sets to the optimization index approaches the magnitude of contribution of the heterogeneous set to the optimization index. 5. The identification dictionary learning device according to any one of 1 to 4.
前記係数更新手段は、受信された前記ルールに従って前記更新を行う、
請求項1乃至5のいずれかに記載の識別辞書学習装置。 An update setting means for receiving the rule in updating the optimization index of at least one of the related sets;
The coefficient update means performs the update according to the received rule.
The identification dictionary learning device according to claim 1.
請求項1乃至6のいずれかに記載の識別辞書学習装置。 The learning means includes, for each of a plurality of different combinations of a class set including one or more classes and a type of feature amount derived based on the learning sample, the combination and the plurality of learning samples. The identification dictionary learning device according to claim 1, wherein learning of the weak classifier is performed based on the identification dictionary learning device.
前記識別辞書学習装置は、
前記識別辞書記憶手段をさらに備え、
前記決定手段は、選択された前記弱識別器を前記識別辞書に追加し、
前記識別装置は、
前記データ値である識別サンプルを受信する設定手段と、
前記識別辞書に含まれる複数の前記弱識別器による前記識別サンプルの前記クラス分類の結果の各々を統合することにより、前記識別サンプルの前記クラス分類を行う判定手段と、
を備える、
識別システム。 An identification device, and an identification dictionary learning device according to any one of claims 1 to 7,
The identification dictionary learning device includes:
Further comprising the identification dictionary storage means,
The determining means adds the selected weak classifier to the identification dictionary,
The identification device includes:
Setting means for receiving an identification sample which is the data value;
Determining means for classifying the classification sample by integrating each of the classification results of the classification sample by the plurality of weak classifiers included in the identification dictionary;
Comprising
Identification system.
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算し、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加し、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う、
識別辞書学習方法。 A plurality of classifiers that perform classification that classifies data values belonging to any of a plurality of classes into any of the plurality of classes, and learning using a plurality of learning samples that are the data values,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class And calculating the optimization index for each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Adding to an identification dictionary which is a set of weak classifiers;
In response to the addition of the weak classifier, the optimization index coefficient is updated based on a rule.
Identification dictionary learning method.
複数のクラスのいずれかに属するデータ値を前記複数のクラスのいずれかに分類するクラス分類を行う、複数の識別器を、複数の、前記データ値である学習サンプルを使用して学習する学習手段と、
誤った前記クラス分類における前記学習サンプルが属する前記クラスと、分類されたクラスとの組み合わせの、前記クラス分類の識別精度を表す最適化指標への寄与の大きさを各々表す複数の最適化指標係数に基づいて、前記複数の識別器の各々の前記最適化指標を計算する指標計算手段と、
学習された前記識別器のうち、前記最適化指標が、識別精度が最も高いことを表す前記識別器を弱識別器として選択し、当該弱識別器を、識別辞書記憶手段に格納されている、前記弱識別器の集合である識別辞書に追加する決定手段と、
前記弱識別器が追加されるのに応じて、前記最適化指標係数の更新をルールに基づいて行う係数更新手段と、
して動作させる識別辞書学習プログラム。 Computer
Learning means for learning a plurality of discriminators by using a plurality of learning samples that are the data values for classifying data values belonging to any of the plurality of classes into any of the plurality of classes. When,
A plurality of optimization index coefficients each representing a magnitude of contribution to an optimization index representing the classification accuracy of the class classification of a combination of the class to which the learning sample belongs in the wrong class classification and the classified class An index calculation means for calculating the optimization index of each of the plurality of classifiers,
Among the learned classifiers, the optimization indicator selects the classifier representing that the classification accuracy is the highest as a weak classifier, and the weak classifier is stored in the identification dictionary storage unit. Determining means for adding to an identification dictionary which is a set of weak classifiers;
Coefficient updating means for updating the optimization index coefficient based on a rule in response to the addition of the weak classifier;
Identification dictionary learning program to be operated.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014189099A JP2016062249A (en) | 2014-09-17 | 2014-09-17 | Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014189099A JP2016062249A (en) | 2014-09-17 | 2014-09-17 | Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016062249A true JP2016062249A (en) | 2016-04-25 |
Family
ID=55796039
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014189099A Pending JP2016062249A (en) | 2014-09-17 | 2014-09-17 | Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016062249A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10482157B2 (en) | 2017-01-17 | 2019-11-19 | Fujitsu Limited | Data compression apparatus and data compression method and storage medium |
| JPWO2021005653A1 (en) * | 2019-07-05 | 2021-01-14 | ||
| US10915799B2 (en) | 2017-01-10 | 2021-02-09 | Fujitsu Limited | Image processing apparatus and image recognition apparatus |
-
2014
- 2014-09-17 JP JP2014189099A patent/JP2016062249A/en active Pending
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10915799B2 (en) | 2017-01-10 | 2021-02-09 | Fujitsu Limited | Image processing apparatus and image recognition apparatus |
| US10482157B2 (en) | 2017-01-17 | 2019-11-19 | Fujitsu Limited | Data compression apparatus and data compression method and storage medium |
| JPWO2021005653A1 (en) * | 2019-07-05 | 2021-01-14 | ||
| WO2021005653A1 (en) * | 2019-07-05 | 2021-01-14 | 日本電気株式会社 | Learning device, learning method, and recording medium |
| JP7184195B2 (en) | 2019-07-05 | 2022-12-06 | 日本電気株式会社 | LEARNING DEVICE, LEARNING METHOD AND PROGRAM |
| US12008074B2 (en) | 2019-07-05 | 2024-06-11 | Nec Corporation | Learning device, learning method and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9002101B2 (en) | Recognition device, recognition method, and computer program product | |
| JP5570629B2 (en) | Classifier learning method and apparatus, and processing apparatus | |
| US7958070B2 (en) | Parameter learning method, parameter learning apparatus, pattern classification method, and pattern classification apparatus | |
| JP6897749B2 (en) | Learning methods, learning systems, and learning programs | |
| US10395136B2 (en) | Image processing apparatus, image processing method, and recording medium | |
| JP5214716B2 (en) | Identification device | |
| WO2016037300A1 (en) | Method and system for multi-class object detection | |
| US11295240B2 (en) | Systems and methods for machine classification and learning that is robust to unknown inputs | |
| CN107633226B (en) | Human body motion tracking feature processing method | |
| CN110008844B (en) | A KCF long-term gesture tracking method based on SLIC algorithm | |
| JP2020501238A (en) | Face detection training method, apparatus and electronic equipment | |
| JP4553044B2 (en) | Group learning apparatus and method | |
| US20150125072A1 (en) | Data processing method for learning discriminator, and data processing apparatus therefor | |
| CN110689044A (en) | Target detection method and system combining relationship between targets | |
| US20190311258A1 (en) | Data dependent model initialization | |
| JP2012203422A (en) | Learning device, method and program | |
| JP2017102906A (en) | Information processing apparatus, information processing method, and program | |
| Freytag et al. | Labeling examples that matter: Relevance-based active learning with gaussian processes | |
| CN113706580A (en) | Target tracking method, system, equipment and medium based on relevant filtering tracker | |
| JP2016095640A (en) | Density measurement device, density measurement method and program | |
| KR101704736B1 (en) | Apparatus and Method of Support Vector Machine Classifier Using Multistage Sub-Classifier | |
| JP2015225410A (en) | Recognition device, method and program | |
| JP2017033175A (en) | Image processing apparatus, image processing method, and program | |
| JP2016062249A (en) | Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program | |
| JP2016071872A (en) | Method and device for tracking object and tracking feature selection method |