[go: up one dir, main page]

JP2017162098A - Learning method, information processing device and learning program - Google Patents

Learning method, information processing device and learning program Download PDF

Info

Publication number
JP2017162098A
JP2017162098A JP2016044733A JP2016044733A JP2017162098A JP 2017162098 A JP2017162098 A JP 2017162098A JP 2016044733 A JP2016044733 A JP 2016044733A JP 2016044733 A JP2016044733 A JP 2016044733A JP 2017162098 A JP2017162098 A JP 2017162098A
Authority
JP
Japan
Prior art keywords
image
feature
types
feature amount
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016044733A
Other languages
Japanese (ja)
Other versions
JP6623851B2 (en
Inventor
大治郎 小牧
Daijiro Komaki
大治郎 小牧
俊輔 山口
Shunsuke Yamaguchi
俊輔 山口
昌子 篠原
Masako Shinohara
昌子 篠原
健一 堀尾
Kenichi Horio
健一 堀尾
村上 雅彦
Masahiko Murakami
雅彦 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016044733A priority Critical patent/JP6623851B2/en
Publication of JP2017162098A publication Critical patent/JP2017162098A/en
Application granted granted Critical
Publication of JP6623851B2 publication Critical patent/JP6623851B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】分類精度を上げること。【解決手段】演算部1bは、画像G1と画像G1のうち第1領域G11を示す情報と画像G1の分類先を示す情報とを取得する。演算部1bは、第1領域G11における複数の種類の特徴量の第1検出結果、および、画像G1のうち第1領域G11以外の第2領域G12における複数の種類の特徴量の第2検出結果を比較する。演算部1bは、当該比較に応じて、取得した分類先へ画像G1を分類する際の複数の種類の特徴量それぞれの重みを決定する。演算部1bは、複数の種類の特徴量それぞれを当該重みにより重み付けした結果に基づいて、画像G1の分類の学習を行う。【選択図】図1[PROBLEMS] To improve classification accuracy. A calculation unit 1b acquires information indicating a first region G11 and information indicating a classification destination of the image G1 in the image G1 and the image G1. The computing unit 1b performs first detection results of a plurality of types of feature amounts in the first region G11 and second detection results of a plurality of types of feature amounts in the second region G12 other than the first region G11 in the image G1. Compare The calculation unit 1b determines the weights of the plurality of types of feature amounts when classifying the image G1 to the acquired classification destination according to the comparison. The computing unit 1b learns the classification of the image G1 based on the result of weighting each of a plurality of types of feature amounts with the weights. [Selection] Figure 1

Description

本発明は学習方法、情報処理装置および学習プログラムに関する。   The present invention relates to a learning method, an information processing apparatus, and a learning program.

現在、様々な分野で画像処理技術が利用されている。例えば、製品の外観を写した画像を検査して良否判定を行う自動検査装置の提案がある。自動検査装置は、被検査対象の画像に対して学習と呼ばれる作業を繰り返した後、任意画像に対して良否判定を行う。   Currently, image processing techniques are used in various fields. For example, there is a proposal of an automatic inspection device that performs quality determination by inspecting an image showing the appearance of a product. The automatic inspection apparatus repeats an operation called learning for an image to be inspected, and then performs pass / fail determination for an arbitrary image.

画像を分類するための学習方法として、例えば、教師あり学習と呼ばれる方法がある。教師あり学習では、所定数の画像集合を予め準備し、各画像に対してユーザが正解/不正解(例えば、良否判定では良/不良)などのラベル付けをする。そして、画像の分類に用いられる特徴量(例えば、画像内の明度や色相など)の集合の中から正解/不正解を分離可能な特徴量の成分をコンピュータにより分析し、当該成分を用いて学習を行う。   As a learning method for classifying images, for example, there is a method called supervised learning. In supervised learning, a predetermined number of image sets are prepared in advance, and the user labels each image as correct / incorrect (for example, good / bad in pass / fail judgment). Then, a component of the feature quantity that can separate the correct / incorrect answer from the set of feature quantities (for example, brightness and hue in the image) used for image classification is analyzed by a computer, and learning is performed using the components. I do.

なお、プロセス制御などの分野で使用されるシステムにおいて、異常な状況か否か、あるいは所定の動作を行うべき状況であるか否かなどを判別するために、状況の類別を行う提案もある。この提案では、状況の類別に用いられる特徴量によって定義される特徴空間において、異常/正常、あるいは動作A/動作Bといったクラス分けをすることで状況を類別し、異常判定や動作判定を行う。   In addition, in a system used in the field of process control and the like, there is also a proposal for classifying a situation in order to determine whether it is an abnormal situation or a situation where a predetermined operation should be performed. In this proposal, in the feature space defined by the feature quantity used for the situation classification, the situation is classified by classifying abnormal / normal or action A / action B, and abnormality determination or action determination is performed.

特開2006−293528号公報JP 2006-293528 A 特開2001−250101号公報JP 2001-250101 A

上記のように、画像集合を予め準備し、当該画像集合を用いて学習を行うことも考えられる。ところが、学習を開始する際に、学習用の画像集合が手元にないこともある。学習用の画像集合が手元にない場合、順次発生する画像データを用いて学習を行うことが考えられる。しかし、この場合、何れの特徴量を学習に用いるべきかの判断が難しい。全ての種類の特徴量を平等に扱って学習を行うことも考えられるが、本来の分類に寄与しない特徴量がノイズとなり、分類の精度が低下し得る。   As described above, it is also conceivable to prepare an image set in advance and perform learning using the image set. However, when learning is started, an image set for learning may not be at hand. If a learning image set is not available, learning may be performed using sequentially generated image data. However, in this case, it is difficult to determine which feature amount should be used for learning. Although it is conceivable to perform learning by treating all types of feature quantities equally, feature quantities that do not contribute to the original classification become noise, and the accuracy of classification can be reduced.

1つの側面では、本発明は、分類精度を上げることを目的とする。   In one aspect, the present invention aims to increase classification accuracy.

1つの態様では、学習方法は、コンピュータが、画像と画像のうち第1領域を示す情報と画像の分類先を示す情報とを取得し、第1領域における複数の種類の特徴量の第1検出結果、および、当該画像のうち第1領域以外の第2領域における複数の種類の特徴量の第2検出結果の比較に応じて、分類先へ画像を分類する際の複数の種類の特徴量それぞれの重みを決定し、複数の種類の特徴量それぞれを当該重みにより重み付けした結果に基づいて、画像の分類の学習を行う。   In one aspect, in the learning method, the computer acquires information indicating a first area and information indicating a classification destination of the image among the images, and performs first detection of a plurality of types of feature amounts in the first area. According to the result and the comparison of the second detection result of the plurality of types of feature amounts in the second region other than the first region of the image, each of the plurality of types of feature amounts at the time of classifying the image to the classification destination , And learning of image classification is performed based on the result of weighting each of a plurality of types of feature amounts by the weight.

1つの側面では、分類精度を上げることができる。   In one aspect, classification accuracy can be increased.

第1の実施の形態の情報処理装置を示す図である。It is a figure which shows the information processing apparatus of 1st Embodiment. 第2の実施の形態の画像処理サーバのハードウェア例を示す図である。It is a figure which shows the hardware example of the image processing server of 2nd Embodiment. 画像処理サーバの機能例を示す図である。It is a figure which shows the example of a function of an image processing server. 注目領域決定ルールの例を示す図である。It is a figure which shows the example of an attention area | region determination rule. 特徴量テーブルの例を示す図である。It is a figure which shows the example of a feature-value table. 特徴量優先度テーブルの例を示す図である。It is a figure which shows the example of a feature-value priority table. 特徴空間の例を示す図である。It is a figure which shows the example of feature space. 優先度の更新例を示す図である。It is a figure which shows the example of an update of a priority. 特徴量の重み付けの例を示す図である。It is a figure which shows the example of the weighting of a feature-value. 学習の例を示すフローチャートである。It is a flowchart which shows the example of learning. 特徴量優先度テーブル更新の例を示すフローチャートである。It is a flowchart which shows the example of a feature-value priority table update. 注目領域決定の例を示すフローチャートである。It is a flowchart which shows the example of attention area determination. 分類と特徴量との関係を示す図である。It is a figure which shows the relationship between a classification | category and a feature-value. 特徴量優先度テーブル更新の他の例を示すフローチャートである。It is a flowchart which shows the other example of a feature-value priority table update. 優先度の更新の他の例を示す図である。It is a figure which shows the other example of the update of a priority.

以下、本実施の形態を図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の情報処理装置を示す図である。情報処理装置1は、入力された画像を2つの分類に分類する。2つの分類は、例えば、正解および不正解である。あるいは、2つの分類は、「良および不良」、「真および偽」、または、「正および負」などと表されてもよい。このような分類は、例えば、画像に写された製品の良否、画像に写された風景における天気の良し悪し、画像内における人物の顔の存在・不存在などの判定に応用され得る。
Hereinafter, the present embodiment will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating the information processing apparatus according to the first embodiment. The information processing apparatus 1 classifies the input image into two categories. The two classifications are, for example, correct answers and incorrect answers. Alternatively, the two classifications may be represented as “good and bad”, “true and false”, “positive and negative”, or the like. Such classification can be applied to, for example, determining whether or not a product shown in an image is good, whether the weather is good or bad in a landscape shown in the image, and the presence or absence of a human face in the image.

情報処理装置1は、入力された画像の分類先を判定するために、教師あり学習を行う。ただし、第1の実施の形態の例では、学習用の画像集合が予め存在していない。このため、情報処理装置1は、順次入力される画像を用いて学習を行う。情報処理装置1は、学習を行う際、入力された画像における複数の種類の特徴量の中から、学習対象とする(すなわち、分類に用いる)特徴量を絞り込む。画像における特徴量としては、例えば、明度分布、カラーヒストグラム、テクスチャなど、画像に関する特徴を数値化した量が考えられる。   The information processing apparatus 1 performs supervised learning in order to determine the classification destination of the input image. However, in the example of the first embodiment, the learning image set does not exist in advance. For this reason, the information processing apparatus 1 performs learning using sequentially input images. When the information processing apparatus 1 performs learning, the information processing apparatus 1 narrows down feature quantities to be learned (that is, used for classification) from among a plurality of types of feature quantities in the input image. As the feature amount in the image, for example, an amount obtained by quantifying the feature relating to the image, such as a brightness distribution, a color histogram, and a texture, can be considered.

情報処理装置1は、記憶部1aおよび演算部1bを有する。記憶部1aは、RAM(Random Access Memory)などの揮発性記憶装置でもよいし、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性記憶装置でもよい。演算部1bは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを含み得る。演算部1bはプログラムを実行するプロセッサであってもよい。ここでいう「プロセッサ」には、複数のプロセッサの集合(マルチプロセッサ)も含まれ得る。   The information processing apparatus 1 includes a storage unit 1a and a calculation unit 1b. The storage unit 1a may be a volatile storage device such as a RAM (Random Access Memory) or a non-volatile storage device such as an HDD (Hard Disk Drive) or a flash memory. The calculation unit 1b may include a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), and the like. The calculation unit 1b may be a processor that executes a program. As used herein, the “processor” may include a set of multiple processors (multiprocessor).

記憶部1aは、画像と当該画像のうち第1領域を示す情報と当該画像の分類先を示す情報とを記憶する。第1領域は、分類先を決定するために注目された領域である。第1領域は、画像内において分類先を決定するために特徴的な領域であるということもできる。例えば、ユーザU1は、画像G1と、画像G1のうち第1領域G11を示す情報と画像G1の分類先C1を示す情報(例えば、画像G1を正解または不正解のどちらに分類したかという情報)とを、端末装置2を用いて、情報処理装置1に入力できる。すなわち、ユーザU1は、画像G1の分類先C1の情報と、画像G1を分類先C1に分類する際に注目した領域とを端末装置2を用いて、情報処理装置1に入力できる。例えば、演算部1bは、端末装置2から取得した画像G1と第1領域G11を示す情報と分類先C1を示す情報とを記憶部1aに格納してもよい。   The storage unit 1a stores an image, information indicating a first area of the image, and information indicating a classification destination of the image. The first area is an area that has attracted attention in order to determine the classification destination. It can also be said that the first region is a characteristic region in order to determine the classification destination in the image. For example, the user U1 indicates the image G1, information indicating the first region G11 in the image G1, and information indicating the classification destination C1 of the image G1 (for example, information indicating whether the image G1 is classified as a correct answer or an incorrect answer). Can be input to the information processing apparatus 1 using the terminal device 2. That is, the user U1 can input the information on the classification destination C1 of the image G1 and the region noticed when the image G1 is classified into the classification destination C1 to the information processing apparatus 1 using the terminal device 2. For example, the calculation unit 1b may store the image G1 acquired from the terminal device 2, information indicating the first region G11, and information indicating the classification destination C1 in the storage unit 1a.

ここで、第1領域G11を示す情報は、画像G1における第1領域G11を特定するためのマーカーM1でもよい。例えば、マーカーM1は、第1領域G11を囲う多角形や楕円などを表す情報でもよい(この場合、マーカーM1で囲われた内側の領域が第1領域G11ということになる)。または、マーカーM1は、線分や、互いに交わる2つの線分などを表す情報でもよい。例えば、演算部1bは、マーカーM1を線分とした場合、線分を含む所定領域を囲う長方形の内側を第1領域G11とするなどの所定のルールにより、第1領域G11を特定できる。あるいは、マーカーM1を互いに交わる2つの線分とした場合、演算部1bは、2つの線分の交点を含む所定範囲の円の内側を第1領域G11とするなどの所定のルールにより、第1領域G11を特定できる。例えば、ユーザU1は、端末装置2を操作して、画像G1に重畳するマーカーM1を入力することができる。この場合、マーカーM1は、ユーザU1により画像G1に対して入力された軌跡の情報として、情報処理装置1に入力される。   Here, the information indicating the first region G11 may be a marker M1 for specifying the first region G11 in the image G1. For example, the marker M1 may be information representing a polygon or an ellipse surrounding the first region G11 (in this case, the inner region surrounded by the marker M1 is referred to as the first region G11). Alternatively, the marker M1 may be information representing a line segment or two line segments that intersect each other. For example, when the marker M1 is a line segment, the calculation unit 1b can specify the first area G11 according to a predetermined rule such as setting the first area G11 inside a rectangle surrounding a predetermined area including the line segment. Alternatively, when the marker M1 is two line segments intersecting each other, the calculation unit 1b performs the first rule according to a predetermined rule such that the inside of a predetermined range circle including the intersection of the two line segments is the first region G11. The region G11 can be specified. For example, the user U1 can input the marker M1 to be superimposed on the image G1 by operating the terminal device 2. In this case, the marker M1 is input to the information processing apparatus 1 as information on a locus input to the image G1 by the user U1.

演算部1bは、画像と当該画像のうち第1領域を示す情報と当該画像の分類先を示す情報とを端末装置2から取得し、記憶部1aに格納する。そして、演算部1bは、第1領域における複数の種類の特徴量の第1検出結果、および、当該画像のうち第1領域以外の第2領域における複数の種類の特徴量の第2検出結果を比較する。演算部1bは、比較に応じて、取得した分類先へ当該画像を分類する際の複数の種類の特徴量それぞれの重み(分類に影響する度合いであり、影響度や優先度などといってもよい)を決定する。例えば、重みは数値で表される。重みの数値が大きいほど分類に対する影響力が大きく、重みの数値が小さいほど分類に対する影響力が小さい。更に、演算部1bは、決定した重みに応じて複数の種類の特徴量それぞれの重み付けを行い、重み付けの結果に基づいて画像の分類の学習を行う。   The computing unit 1b acquires the image, information indicating the first area of the image, and information indicating the classification destination of the image from the terminal device 2, and stores the acquired information in the storage unit 1a. Then, the computing unit 1b obtains the first detection result of the plurality of types of feature amounts in the first region and the second detection result of the plurality of types of feature amounts in the second region other than the first region in the image. Compare. According to the comparison, the calculation unit 1b determines the weight of each of the plurality of types of feature amounts when classifying the image to the acquired classification destination (the degree of influence on the classification, such as the degree of influence and the priority). Good). For example, the weight is represented by a numerical value. The greater the weight value, the greater the influence on the classification, and the smaller the weight value, the smaller the influence on the classification. Furthermore, the calculation unit 1b performs weighting of each of the plurality of types of feature amounts according to the determined weight, and learns image classification based on the weighting result.

例えば、演算部1bは、前述のように、画像G1、第1領域G11を示すマーカーM1(軌跡の情報)および画像G1の分類先の情報のユーザU1による入力を許容する。そして、演算部1bは、画像G1の第1領域G11における複数の種類の特徴量の第1検出結果を得る。また、演算部1bは、画像G1の第1領域G11以外の第2領域G12における複数の種類の特徴量の第2検出結果を得る。ここで、一例として、特徴量X,Y,Zの3種類の特徴量を考える。複数の種類の特徴量の次元をもつ空間を特徴量空間と呼ぶことがある。特徴量X,Y,Zの3種類の特徴量を考える場合、特徴量X,Y,Zそれぞれに相当する3つの軸をもつ3次元の特徴量空間を考えることができる。この場合、3種類の特徴量の検出結果を、3つの軸に対する3つの座標の組合せと考えてもよい。   For example, as described above, the calculation unit 1b allows the user U1 to input the image G1, the marker M1 (trajectory information) indicating the first region G11, and the classification destination information of the image G1. Then, the calculation unit 1b obtains first detection results of a plurality of types of feature amounts in the first region G11 of the image G1. Further, the calculation unit 1b obtains second detection results of a plurality of types of feature amounts in the second region G12 other than the first region G11 of the image G1. Here, as an example, three types of feature amounts X, Y, and Z are considered. A space having dimensions of a plurality of types of feature values may be referred to as a feature value space. When considering three types of feature amounts X, Y, and Z, a three-dimensional feature amount space having three axes corresponding to the feature amounts X, Y, and Z can be considered. In this case, the detection result of the three types of feature amounts may be considered as a combination of three coordinates with respect to the three axes.

例えば、演算部1bは、第1検出結果として、第1領域G11において、特徴量X=x1、Y=y1、Z=z1を得る。また、演算部1bは、第2検出結果として、第2領域G12において、特徴量X=x2、Y=y2、Z=z2を得る。そして、演算部1bは、第1検出結果と第2検出結果とを比較する。具体的には、演算部1bは、同じ種類の特徴量同士を比較し、最も差の大きな特徴量を特定する。この場合、最も差の大きな特徴量は、特徴量Xであったとする。すると、演算部1bは、分類先C1へ画像G1を分類する際の特徴量Xの重みを、特徴量Y,Zの重みよりも大きくする。第1検出結果および第2検出結果において、最も差の大きな特徴量は、分類先を分類先C1に決定した際に着目された特徴量である可能性が高いからである。   For example, the computing unit 1b obtains feature amounts X = x1, Y = y1, and Z = z1 in the first region G11 as the first detection result. In addition, the calculation unit 1b obtains feature amounts X = x2, Y = y2, and Z = z2 in the second region G12 as the second detection result. Then, the calculation unit 1b compares the first detection result with the second detection result. Specifically, the computing unit 1b compares the same type of feature quantities and identifies the feature quantity having the largest difference. In this case, it is assumed that the feature amount having the largest difference is the feature amount X. Then, the calculation unit 1b makes the weight of the feature amount X when classifying the image G1 to the classification destination C1 larger than the weights of the feature amounts Y and Z. This is because the feature quantity having the largest difference in the first detection result and the second detection result is highly likely to be the feature quantity focused on when the classification destination is determined as the classification destination C1.

例えば、演算部1bは、最も差が大きいと判断された回数の割合を、複数の種類の特徴量それぞれの重みとすることが考えられる。具体的には、入力された画像が合計1つで、注目領域と非注目領域とで最も差が大きな特徴量が特徴量Xと判断された場合(特徴量Xに投票した場合)には、演算部1bは、特徴量Xの重みを“1”、特徴量Yの重みを“0”、特徴量Zの重みを“0”とする。あるいは、今回までに入力された画像が合計10個で、そのうち、注目領域と非注目領域とで最も差が大きな特徴量が特徴量Xであると判断された回数(特徴量Xへの投票数)が6回のとき、演算部1bは、特徴量Xの重みを“6/10=0.6”とする。また、今回までに入力された画像が合計10個で、そのうち、注目領域と非注目領域とで最も差が大きな特徴量が特徴量Yであると判断された回数(特徴量Yへの投票数)が1回のとき、演算部1bは、特徴量Yの重みを“1/10=0.1”とする。更に、今回までに入力された画像が合計10個で、そのうち、注目領域と非注目領域とで最も差が大きな特徴量が特徴量Zであると判断された回数(特徴量Zへの投票数)が3回のとき、演算部1bは、特徴量Zの重みを“3/10=0.3”とする。演算部1bは、こうして求めた特徴量X,Y,Zそれぞれの重みを、例えば、記憶部1aに記憶された重みテーブルT1に登録する。   For example, the calculation unit 1b may use the ratio of the number of times determined to have the largest difference as the weight of each of the plurality of types of feature amounts. Specifically, when the total number of input images is one and the feature amount having the largest difference between the attention region and the non-attention region is determined as the feature amount X (when voting for the feature amount X), The calculation unit 1b sets the weight of the feature quantity X to “1”, the weight of the feature quantity Y to “0”, and the weight of the feature quantity Z to “0”. Alternatively, the total number of images input up to this time, and the number of times that the feature amount having the largest difference between the attention region and the non-attention region is determined to be the feature amount X (the number of votes for the feature amount X) ) Is 6 times, the calculation unit 1b sets the weight of the feature amount X to “6/10 = 0.6”. In addition, the total number of images input up to this time is 10. The number of times that the feature amount having the largest difference between the attention region and the non-attention region is determined to be the feature amount Y (the number of votes for the feature amount Y). ) Is one time, the calculation unit 1b sets the weight of the feature amount Y to “1/10 = 0.1”. Furthermore, the total number of images input up to this time is 10. The number of times that the feature amount having the largest difference between the attention region and the non-attention region is determined to be the feature amount Z (the number of votes for the feature amount Z). ) Is three times, the calculation unit 1b sets the weight of the feature amount Z to “3/10 = 0.3”. The calculation unit 1b registers the weights of the feature amounts X, Y, and Z thus obtained, for example, in the weight table T1 stored in the storage unit 1a.

こうして、演算部1bは、順次到着する画像と共に、分類先の情報と、当該画像のうち分類先の決定に着目された領域の情報とを受け付け、複数の種類の特徴量X,Y,Zのうち、分類先の決定に対する特徴量X,Y,Zの重みを更新する。例えば、演算部1bは、所定数の画像により重みを更新すると、決定した重みに応じて複数の種類の特徴量それぞれを重み付けする。例えば、演算部1bは、特徴量X,Y,Zそれぞれの重みを“0.6”、“0.1”、“0.3”と決定している場合を考える。この場合、演算部1bは、これまでに入力された画像それぞれについて、特徴量Xを6倍、特徴量Yを1倍、特徴量Zを3倍に補正した重み付け結果を得る(ただし、重みの値そのものを乗じてもよい)。   In this way, the arithmetic unit 1b receives the information of the classification destination and the information of the area focused on the determination of the classification destination in the image together with the sequentially arriving images, and the plurality of types of feature amounts X, Y, and Z are received. Among them, the weights of the feature amounts X, Y, and Z for the determination of the classification destination are updated. For example, when the weight is updated with a predetermined number of images, the calculation unit 1b weights each of the plurality of types of feature amounts according to the determined weight. For example, consider a case where the calculation unit 1b determines that the weights of the feature amounts X, Y, and Z are “0.6”, “0.1”, and “0.3”, respectively. In this case, the calculation unit 1b obtains a weighting result obtained by correcting the feature amount X by 6 times, the feature amount Y by 1 time, and the feature amount Z by 3 times for each of the images input so far (however, You may multiply by the value itself).

演算部1bは、重み付けの結果に基づいて画像の分類の学習を行う。より具体的には、演算部1bは、重み付けされた各特徴量を用いて、画像を分類するための識別モデルを生成する。識別モデルの生成には既存の機械学習の方法(例えば、サポートベクタマシン(SVM:Support Vector Machine)など)を用いることができる。作成した識別モデルを用いて画像の分類を行う際には、分類対象の画像から抽出した各特徴量を、重みテーブルT1に登録された重みによって重み付けして、識別モデルによる分類を行うことになる。   The computing unit 1b learns image classification based on the weighting result. More specifically, the computing unit 1b generates an identification model for classifying images using each weighted feature amount. An existing machine learning method (for example, a support vector machine (SVM)) can be used to generate the identification model. When classifying an image using the created identification model, each feature amount extracted from the image to be classified is weighted by the weight registered in the weight table T1, and classification is performed based on the identification model. .

ここで、例えば、ある画像に対して、「この画像に人の顔が映っているか?」ということを認識したい場合、人の顔が映っている/映っていないというラベルが付けられた画像を大量に用意し、教師あり学習を用いることで分類用の識別モデルを作成し得る。しかし、手元に学習するべきデータセットが存在しない場合、どのような特徴量を用いて学習すればよいか不明である。単純な方法として、画像分類に良く用いられる特徴量セットを用意し、全ての特徴量を平等に扱って学習を行うことも考えられる。ところが、この方法では、本来の分類に寄与しない特徴量の次元がノイズになり、分類の精度が低下し得る。   Here, for example, when it is desired to recognize that “a person's face is reflected in this image” for an image, an image labeled with / without a person's face is displayed. An identification model for classification can be created by preparing a large amount and using supervised learning. However, when there is no data set to be learned at hand, it is unclear what feature quantity should be used for learning. As a simple method, it is conceivable to prepare a feature amount set that is often used for image classification, and to perform learning by treating all feature amounts equally. However, in this method, the dimension of the feature quantity that does not contribute to the original classification becomes noise, and the classification accuracy can be reduced.

そこで、情報処理装置1では、正解又は不正解のラベルとラベル付け時の画像中の注目領域の情報の入力を許容し、注目領域と非注目領域とで特徴量を比較して、複数種の特徴量からラベル付けに有効な特徴量を効率的に絞り込む。注目領域(第1領域)周辺とそれ以外の領域(第2領域)で大きく値の異なる特徴量は、正否のラベル付けの判断における影響が比較的大きいと考えられるからである。また、例えば、注目領域として指定された形状が凸凹であればエッジ系の特徴に注目してラベル付けされた、当該形状が長方形や楕円形であれば当該形状の広がり方向成分で色や輝度などの急激な変化がある特徴に注目してラベル付けされた、などの推定もできる。   Therefore, the information processing apparatus 1 allows the input of the correct answer or incorrect answer label and the information of the attention area in the image at the time of labeling, and compares the feature amount between the attention area and the non-attention area, Efficiently narrow down the effective features for labeling from the features. This is because it is considered that a feature value having a large value in the vicinity of the attention area (first area) and the other area (second area) has a relatively large influence on the determination of correct / incorrect labeling. Also, for example, if the shape specified as the region of interest is uneven, it is labeled with attention to the features of the edge system, and if the shape is rectangular or elliptical, the color, brightness, etc. with the spreading direction component of the shape It can also be estimated that the features are labeled with attention to features that have sudden changes.

こうして、情報処理装置1によれば、学習を効率化できる。特に、本来の分類に対する寄与が大きいと推定される特徴量に絞り込んで学習を行えるので、全ての種類の特徴量を平等に扱って学習を行うよりも、分類の精度を上げることができる。更に、全ての種類の特徴量を平等に扱う場合に比べて、分類モデルの収束が早くなることが期待されるので、学習に要する画像数を少なくでき、学習に伴うコスト(学習のための時間やユーザの作業コストなど)を減らせる。   Thus, according to the information processing apparatus 1, learning can be made efficient. In particular, since learning can be performed by narrowing down to feature quantities that are estimated to have a large contribution to the original classification, classification accuracy can be improved as compared to learning by treating all types of feature quantities equally. Furthermore, since it is expected that the classification model converges faster than when all types of feature values are handled equally, the number of images required for learning can be reduced, and the learning costs (time for learning) can be reduced. And user work costs).

特に、オンライン学習(時々刻々と画像データが生成され、順次生成される画像データを用いて学習を行う手法)の場合は、手元に学習用の画像データのセットがないため、どの特徴量が分類に有効であるかの試行錯誤を行えない。一方、情報処理装置1によれば、分類に有効である可能性の高い特徴量を、順次到着する画像データを用いて絞り込める。このため、情報処理装置1は、オンライン学習を行う場合に有用である。   In particular, in the case of online learning (a method in which image data is generated every moment and learning is performed using sequentially generated image data), since there is no set of image data for learning at hand, which feature quantity is classified Trial and error can not be done. On the other hand, according to the information processing apparatus 1, feature quantities that are highly likely to be effective for classification can be narrowed down using sequentially arrived image data. For this reason, the information processing apparatus 1 is useful when performing online learning.

次に、第1の実施の形態で説明した方法で学習を行う情報処理装置の機能をより具体的に説明する。例えば、情報処理装置1は、コンピュータ(サーバコンピュータやクライアントコンピュータを含む)によって実現されてもよい。   Next, the function of the information processing apparatus that performs learning by the method described in the first embodiment will be described more specifically. For example, the information processing apparatus 1 may be realized by a computer (including a server computer and a client computer).

[第2の実施の形態]
図2は、第2の実施の形態の画像処理サーバのハードウェア例を示す図である。画像処理サーバ100は、プロセッサ101、RAM102、HDD103、画像信号処理部104、入力信号処理部105、媒体リーダ106および通信インタフェース107を有する。各ユニットは画像処理サーバ100のバスに接続されている。
[Second Embodiment]
FIG. 2 is a diagram illustrating an example of hardware of the image processing server according to the second embodiment. The image processing server 100 includes a processor 101, a RAM 102, an HDD 103, an image signal processing unit 104, an input signal processing unit 105, a medium reader 106, and a communication interface 107. Each unit is connected to the bus of the image processing server 100.

プロセッサ101は、画像処理サーバ100の情報処理を制御する。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、DSP、ASICまたはFPGAなどである。プロセッサ101は、CPU、DSP、ASIC、FPGAなどのうちの2以上の要素の組み合わせであってもよい。   The processor 101 controls information processing of the image processing server 100. The processor 101 may be a multiprocessor. The processor 101 is, for example, a CPU, DSP, ASIC, or FPGA. The processor 101 may be a combination of two or more elements of CPU, DSP, ASIC, FPGA, and the like.

RAM102は、画像処理サーバ100の主記憶装置である。RAM102は、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。   The RAM 102 is a main storage device of the image processing server 100. The RAM 102 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the processor 101. The RAM 102 stores various data used for processing by the processor 101.

HDD103は、画像処理サーバ100の補助記憶装置である。HDD103は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、OSのプログラム、アプリケーションプログラム、および各種データを記憶する。画像処理サーバ100は、フラッシュメモリやSSD(Solid State Drive)などの他の種類の補助記憶装置を備えてもよく、複数の補助記憶装置を備えてもよい。   The HDD 103 is an auxiliary storage device of the image processing server 100. The HDD 103 magnetically writes and reads data to and from the built-in magnetic disk. The HDD 103 stores an OS program, application programs, and various data. The image processing server 100 may include other types of auxiliary storage devices such as flash memory and SSD (Solid State Drive), or may include a plurality of auxiliary storage devices.

画像信号処理部104は、プロセッサ101からの命令に従って、画像処理サーバ100に接続されたディスプレイ11に画像を出力する。ディスプレイ11としては、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイなどを用いることができる。   The image signal processing unit 104 outputs an image to the display 11 connected to the image processing server 100 in accordance with an instruction from the processor 101. As the display 11, a CRT (Cathode Ray Tube) display, a liquid crystal display, or the like can be used.

入力信号処理部105は、画像処理サーバ100に接続された入力デバイス12から入力信号を取得し、プロセッサ101に出力する。入力デバイス12としては、例えば、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。   The input signal processing unit 105 acquires an input signal from the input device 12 connected to the image processing server 100 and outputs it to the processor 101. As the input device 12, for example, a pointing device such as a mouse or a touch panel, a keyboard, or the like can be used.

媒体リーダ106は、記録媒体13に記録されたプログラムやデータを読み取る装置である。記録媒体13として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。また、記録媒体13として、例えば、フラッシュメモリカードなどの不揮発性の半導体メモリを使用することもできる。媒体リーダ106は、例えば、プロセッサ101からの命令に従って、記録媒体13から読み取ったプログラムやデータをRAM102またはHDD103に格納する。   The medium reader 106 is a device that reads programs and data recorded on the recording medium 13. As the recording medium 13, for example, a magnetic disk such as a flexible disk (FD) or an HDD, an optical disk such as a CD (Compact Disc) or a DVD (Digital Versatile Disc), or a magneto-optical disk (MO) is used. Can be used. Further, as the recording medium 13, for example, a non-volatile semiconductor memory such as a flash memory card can be used. For example, the medium reader 106 stores the program and data read from the recording medium 13 in the RAM 102 or the HDD 103 in accordance with an instruction from the processor 101.

通信インタフェース107は、ネットワーク10を介して他の装置と通信を行う。通信インタフェース107は、有線通信インタフェースでもよいし、無線通信インタフェースでもよい。   The communication interface 107 communicates with other devices via the network 10. The communication interface 107 may be a wired communication interface or a wireless communication interface.

ここで、画像処理サーバ100は、第1の実施の形態の情報処理装置1の一例である。
図3は、画像処理サーバの機能例を示す図である。画像処理サーバ100は、記憶部110、ラベル受付部120、特徴抽出部130、優先特徴量決定部140、特徴重み付け部150および識別モデル生成部160を有する。記憶部110は、RAM102またはHDD103に確保された記憶領域として実現される。ラベル受付部120、特徴抽出部130、優先特徴量決定部140、特徴重み付け部150および識別モデル生成部160は、RAM102に記憶されたプログラムをプロセッサ101により実行することで実現される。
Here, the image processing server 100 is an example of the information processing apparatus 1 according to the first embodiment.
FIG. 3 is a diagram illustrating an example of functions of the image processing server. The image processing server 100 includes a storage unit 110, a label reception unit 120, a feature extraction unit 130, a priority feature amount determination unit 140, a feature weighting unit 150, and an identification model generation unit 160. The storage unit 110 is realized as a storage area secured in the RAM 102 or the HDD 103. The label receiving unit 120, the feature extracting unit 130, the priority feature amount determining unit 140, the feature weighting unit 150, and the identification model generating unit 160 are realized by the processor 101 executing a program stored in the RAM 102.

記憶部110は、注目領域決定ルール、特徴量テーブルおよび特徴量優先度テーブルを記憶する。注目領域決定ルールは、画像に付与されたマーカー(画像情報とは異なる情報)の種類に応じた画像内の注目領域の決定ルールを定めた情報である。ここで、注目領域とは、ユーザが、ある画像に対して正解/不正解などのラベル付けを行う際に、当該ラベルの決定のために注目した領域を示す。マーカーの種類は、例えば、マーカーの形状に応じて分類される。具体的には、閉じた線、閉じていない1本の線分、互いに交わる2本の線分など、種々の種類が考えられる。   The storage unit 110 stores an attention area determination rule, a feature amount table, and a feature amount priority table. The attention area determination rule is information defining a determination rule for an attention area in an image according to the type of marker (information different from image information) given to the image. Here, the attention area indicates an area that is noticed for determining a label when the user labels a certain image as correct / incorrect. The type of marker is classified according to the shape of the marker, for example. Specifically, various types are conceivable, such as a closed line, one line segment that is not closed, and two line segments that intersect each other.

特徴量テーブルは、画像と、画像に対するラベルと、画像における複数の種類の特徴量との対応関係を示す情報である。特徴量優先度テーブルは、複数の種類の特徴量それぞれの画像の分類に用いる優先度を示す情報である。特徴量優先度テーブルは、複数の種類の特徴量それぞれの画像の分類に対する重みを示す情報であるともいえる。なお、解析対象とする複数の種類の特徴量は、画像処理サーバ100に予め設定される。   The feature amount table is information indicating the correspondence relationship between an image, a label for the image, and a plurality of types of feature amounts in the image. The feature amount priority table is information indicating priorities used for classifying images of a plurality of types of feature amounts. It can be said that the feature amount priority table is information indicating weights for the image classification of each of a plurality of types of feature amounts. Note that a plurality of types of feature quantities to be analyzed are set in the image processing server 100 in advance.

ラベル受付部120は、画像と、画像に対するラベルと、ラベル付けの際に注目された注目領域を示す情報との入力を受け付ける。例えば、ユーザは、ディスプレイ11に表示された画像を確認して、当該画像に対して付与するラベルを決定し、入力デバイス12を用いて画像処理サーバ100に当該ラベルを入力できる。その際、ユーザは、ラベルの決定のために注目した注目領域を示す情報(マーカー)を、入力デバイス12を用いて画像処理サーバ100に入力できる。マーカーは、該当の画像内のある領域を特定するための情報である。マーカーの情報は、画像の情報とは別個の情報として、ディスプレイ11に入力される。ユーザは、ネットワーク10に接続されたクライアントコンピュータを用いて、画像と、画像に対するラベルと、注目領域を示す情報とを、画像処理サーバ100に入力することもできる。ラベル受付部120は、受け付けた画像とマーカーの情報とを記憶部110に格納する。ラベル受付部120は、受け付けたラベルを、画像の識別情報に対応付けて、記憶部110に記憶された特徴量テーブルに登録する。   The label accepting unit 120 accepts input of an image, a label for the image, and information indicating a region of interest that has been noted at the time of labeling. For example, the user can confirm the image displayed on the display 11, determine a label to be given to the image, and input the label to the image processing server 100 using the input device 12. At that time, the user can input information (marker) indicating the region of interest focused on for the label determination to the image processing server 100 using the input device 12. The marker is information for specifying a certain area in the corresponding image. The marker information is input to the display 11 as information separate from the image information. A user can also input an image, a label for the image, and information indicating a region of interest into the image processing server 100 using a client computer connected to the network 10. The label receiving unit 120 stores the received image and marker information in the storage unit 110. The label receiving unit 120 registers the received label in the feature amount table stored in the storage unit 110 in association with the identification information of the image.

特徴抽出部130は、入力された画像から、解析対象である複数の種類の特徴量を抽出する。特徴抽出部130は、抽出した特徴量を、画像の識別情報に対応付けて、記憶部110に記憶された特徴量テーブルに登録する。   The feature extraction unit 130 extracts a plurality of types of feature amounts to be analyzed from the input image. The feature extraction unit 130 registers the extracted feature amount in the feature amount table stored in the storage unit 110 in association with the identification information of the image.

優先特徴量決定部140は、受け付けた画像とマーカーの情報とに基づいて当該画像のうち注目領域を特定する。優先特徴量決定部140は、記憶部110に記憶された注目領域決定ルールに基づいて、マーカーの形状に応じた注目領域を、当該画像から特定する。優先特徴量決定部140は、注目領域において複数の種類の特徴量を抽出する。優先特徴量決定部140は、非注目領域において複数の種類の特徴量を抽出する。優先特徴量決定部140は、注目領域と非注目領域とに対して抽出した同じ種類の特徴量同士を比較する。優先特徴量決定部140は、比較に応じて、複数の種類の特徴量それぞれのラベル付け(分類)に対する優先度を決定する。優先特徴量決定部140は、決定した優先度を、記憶部110に記憶された特徴量優先度テーブルに登録する。   The priority feature amount determination unit 140 identifies a region of interest in the image based on the received image and marker information. Based on the attention area determination rules stored in the storage unit 110, the priority feature amount determination unit 140 identifies an attention area corresponding to the shape of the marker from the image. The priority feature amount determination unit 140 extracts a plurality of types of feature amounts in the attention area. The priority feature amount determination unit 140 extracts a plurality of types of feature amounts in the non-attention area. The priority feature amount determination unit 140 compares feature amounts of the same type extracted for the attention area and the non-attention area. The priority feature amount determination unit 140 determines priorities for labeling (classification) of the plurality of types of feature amounts according to the comparison. The priority feature amount determination unit 140 registers the determined priority in the feature amount priority table stored in the storage unit 110.

特徴重み付け部150は、特徴量優先度テーブルにおける複数の種類の特徴量それぞれの優先度を用いて、特徴量テーブルに登録された各特徴量を重み付けする。
識別モデル生成部160は、特徴重み付け部150により重み付けされた各特徴量を用いて、画像を分類するための識別モデルを生成する。識別モデルの生成にはSVMなどの既存の方法を用いることができる。
The feature weighting unit 150 weights each feature amount registered in the feature amount table using the priorities of the plurality of types of feature amounts in the feature amount priority table.
The identification model generation unit 160 generates an identification model for classifying images using each feature amount weighted by the feature weighting unit 150. An existing method such as SVM can be used to generate the identification model.

図4は、注目領域決定ルールの例を示す図である。注目領域決定ルール111は、記憶部110に予め格納される。注目領域決定ルール111は、マーカー種類および注目領域の項目を含む。   FIG. 4 is a diagram illustrating an example of the attention area determination rule. The attention area determination rule 111 is stored in the storage unit 110 in advance. The attention area determination rule 111 includes items of a marker type and an attention area.

マーカー種類の項目には、マーカーの形状によって分類されるマーカーの種類が登録される。注目領域の項目には、マーカーの種類に応じた注目領域の決定方法が登録される。
例えば、注目領域決定ルール111には、マーカー種類が“閉じた線”、注目領域が“閉じた線の内側の領域”という情報が登録される。これは、マーカー種類が“閉じた線”である場合、注目領域を“閉じた線の内側の領域”とすることを示す。“閉じた線”とは、例えば、ある領域の外周を縁取る線である。“閉じた線”とは、始点と終点とが結ばれた線ということもできる。マーカーM11は、“閉じた線”の一例である。マーカーM11が指定された場合、注目領域は、マーカーM11の内側の領域R11である。
In the marker type item, the type of marker classified by the shape of the marker is registered. In the attention area item, a method of determining the attention area according to the type of marker is registered.
For example, in the attention area determination rule 111, information that the marker type is “closed line” and the attention area is “area inside the closed line” is registered. This indicates that when the marker type is “closed line”, the region of interest is “an area inside the closed line”. The “closed line” is, for example, a line that borders the outer periphery of a certain region. The “closed line” can also be referred to as a line connecting the start point and the end point. The marker M11 is an example of a “closed line”. When the marker M11 is designated, the attention area is an area R11 inside the marker M11.

また、例えば、注目領域決定ルール111には、マーカー種類が“1つの線分”、注目領域が“線分の周辺を含む所定の大きさの長方形の内側の領域”という情報が登録される。これは、マーカー種類が“1つの線分”である場合、注目領域を“線分の周辺を含む所定の大きさの長方形の内側の領域”とすることを示す。“線分の周辺を含む所定の大きさの長方形”は、例えば、線分の周辺を含む所定面積の長方形でもよい。“線分の周辺を含む所定の大きさの長方形”は、線分の長さ方向に延びる当該線分と同じ長さをもつ平行な2つの辺と、当該2つの辺と直行する所定長さの2つの辺とからなる長方形でもよい。“線分”は、“閉じていない線”(始点と終点とが異なる線)により表される線を、真っ直ぐな線に近似した線でもよい。マーカーM12は、“1つの線分”の一例である。マーカーM12が指定された場合、注目領域は、例えば、マーカーM12を含む所定の大きさの長方形の内側の領域R12である。   Further, for example, in the attention area determination rule 111, information that the marker type is “one line segment” and the attention area is “an area inside a rectangle of a predetermined size including the periphery of the line segment” is registered. This indicates that when the marker type is “one line segment”, the region of interest is “a region inside a rectangle of a predetermined size including the periphery of the line segment”. The “rectangle having a predetermined size including the periphery of the line segment” may be, for example, a rectangle having a predetermined area including the periphery of the line segment. “A rectangle of a predetermined size including the periphery of a line segment” means two parallel sides having the same length as the line segment extending in the length direction of the line segment and a predetermined length perpendicular to the two sides. The rectangle which consists of these two sides may be sufficient. The “line segment” may be a line obtained by approximating a straight line to a line represented by an “unclosed line” (a line having a different start point and end point). The marker M12 is an example of “one line segment”. When the marker M12 is designated, the attention area is, for example, an area R12 inside a rectangle having a predetermined size including the marker M12.

また、例えば、注目領域決定ルール111には、マーカー種類が“交差する複数の線分”、注目領域が“交点の周辺の領域”という情報が登録される。これは、マーカー種類が“交差する複数の線分”である場合、注目領域を“交点の周辺の領域”とすることを示す。“交点の周辺の領域”とは、例えば、交点を中心とした所定半径の円の内側の領域でもよい。マーカーM13は、“交差する複数の線分”の一例である。マーカーM13は、2つの線分が交差した形状を表すマーカーである。マーカーM13が指定された場合、注目領域は、例えば、マーカーM13の交点を中心とした所定半径の円の内側の領域R13である。   Also, for example, in the attention area determination rule 111, information that the marker type is “a plurality of intersecting line segments” and the attention area is “area around the intersection” is registered. This indicates that when the marker type is “a plurality of intersecting line segments”, the region of interest is “region around the intersection”. The “region around the intersection” may be, for example, a region inside a circle with a predetermined radius centered on the intersection. The marker M13 is an example of “a plurality of intersecting line segments”. The marker M13 is a marker representing a shape in which two line segments intersect. When the marker M13 is designated, the attention area is, for example, an area R13 inside a circle with a predetermined radius centered on the intersection of the markers M13.

このように、注目領域決定ルール111には、マーカーの種類と、注目領域の特定方法との対応関係が登録される。マーカーの種類および注目領域の特定方法には、上記以外の種類および特定方法を用いることもできる。   As described above, the attention area determination rule 111 registers the correspondence between the marker type and the attention area specifying method. For the method of specifying the marker type and the region of interest, other types and specifying methods than those described above can be used.

図5は、特徴量テーブルの例を示す図である。特徴量テーブル112は、記憶部110に格納される。特徴量テーブル112には、入力された各画像について、予め定められた複数の種類の特徴量の抽出結果が登録される。また、特徴量テーブル112には、各画像に対して入力されたラベルの値も登録される。例えば、ラベルの値は、“true”および“false”の何れかである。特徴量テーブル112の例では、「項目」の列に、“特徴量A”、“特徴量B”、“特徴量C”、・・・というように特徴量の名称が示されている。「項目」の列の最下段は、“ラベル”である。また、特徴量テーブル112の例では、最上段の行が「画像名」を表している。画像名は、例えば、“画像P1”、“画像P2”、・・・である。“画像P1”の列の各値が、画像P1に対応する特徴量の各値およびラベルの値である。   FIG. 5 is a diagram illustrating an example of the feature amount table. The feature amount table 112 is stored in the storage unit 110. In the feature amount table 112, extraction results of a plurality of predetermined types of feature amounts are registered for each input image. In the feature amount table 112, the label value input for each image is also registered. For example, the value of the label is either “true” or “false”. In the example of the feature quantity table 112, the feature quantity names such as “feature quantity A”, “feature quantity B”, “feature quantity C”,... The bottom row of the “Item” column is “Label”. In the example of the feature quantity table 112, the top row represents “image name”. The image names are, for example, “image P1”, “image P2”,. Each value in the column of “image P1” is a feature value and a label value corresponding to the image P1.

特徴量テーブル112の例では、画像P1について、特徴量Aが“0.20”、特徴量Bが“0.56”、特徴量Cが“0.11”、・・・、ラベルが“true”である。また、画像P2について、特徴量Aが“0.30”、特徴量Bが“0.14”、特徴量Cが“0.67”、・・・、ラベルが“false”である。特徴量テーブル112には、順次到着する画像毎に、各特徴量の抽出結果およびラベルの値が登録されていく。   In the example of the feature amount table 112, for the image P1, the feature amount A is “0.20”, the feature amount B is “0.56”, the feature amount C is “0.11”, and the label is “true”. ". For the image P2, the feature amount A is “0.30”, the feature amount B is “0.14”, the feature amount C is “0.67”, and the label is “false”. In the feature amount table 112, the extraction result of each feature amount and the value of the label are registered for each sequentially arrived image.

図6は、特徴量優先度テーブルの例を示す図である。特徴量優先度テーブル113は、記憶部110に格納される。特徴量優先度テーブル113は、第1の実施の形態の重みテーブルT1の一例である。特徴量優先度テーブル113は、特徴量名および優先度の項目を含む。   FIG. 6 is a diagram illustrating an example of a feature amount priority table. The feature amount priority table 113 is stored in the storage unit 110. The feature amount priority table 113 is an example of the weight table T1 according to the first embodiment. The feature quantity priority table 113 includes items of feature quantity names and priorities.

特徴量名の項目には、特徴量の名称が登録される。優先度の項目には、優先度の値が登録される。優先度の値は、0以上1以下の値である。値が大きいほど、優先される度合が高い。各特徴量の優先度の合計は、“1”に正規化される。具体的には、優先度は、各画像のうち、注目領域と非注目領域とで最大の差となる特徴量として投票された回数の、各画像の合計数に対する割合である。なお、特徴量優先度テーブル113における各特徴量の優先度の初期値は“0”である。   The feature quantity name is registered in the feature quantity name item. A priority value is registered in the priority item. The priority value is a value between 0 and 1. The higher the value, the higher the priority. The total priority of each feature quantity is normalized to “1”. Specifically, the priority is the ratio of the number of times that each of the images has been voted as a feature amount that is the largest difference between the attention area and the non-attention area to the total number of each image. Note that the initial value of the priority of each feature quantity in the feature quantity priority table 113 is “0”.

例えば、特徴量優先度テーブル113には、特徴量名が“特徴量A”、優先度が“0.3”という情報が登録される。これは、特徴量Aの優先度が“0.3”であることを示す。また、特徴量優先度テーブル113には、特徴量名が“特徴量B”、優先度が“0.6”という情報が登録される。これは、特徴量Bの優先度が“0.6”であることを示す。また、特徴量優先度テーブル113には、特徴量名が“特徴量C”、優先度が“0.1”という情報が登録される。これは、特徴量Cの優先度が“0.1”であることを示す。この場合、特徴量A,B,C以外の特徴量は優先度“0”ということになる。また、特徴量A,B,Cの間では、特徴量Bが最も優先度が高く、特徴量Aが2番目に優先度が高く、特徴量Cが最も優先度が低いということになる。   For example, in the feature quantity priority table 113, information that the feature quantity name is “feature quantity A” and the priority is “0.3” is registered. This indicates that the priority of the feature amount A is “0.3”. In the feature quantity priority table 113, information that the feature quantity name is “feature quantity B” and the priority is “0.6” is registered. This indicates that the priority of the feature amount B is “0.6”. In the feature quantity priority table 113, information that the feature quantity name is “feature quantity C” and the priority is “0.1” is registered. This indicates that the priority of the feature amount C is “0.1”. In this case, the feature quantities other than the feature quantities A, B, and C have the priority “0”. Among the feature quantities A, B, and C, the feature quantity B has the highest priority, the feature quantity A has the second highest priority, and the feature quantity C has the lowest priority.

図7は、特徴空間の例を示す図である。例えば、特徴空間は、画像の分類に用いられる複数の種類の特徴量に対応する複数の軸により表される。図7では、カラーヒストグラム、明度分布およびテクスチャの3つの軸により表される特徴空間を例示している。例えば、カラーヒストグラムは、各色のピクセルが画像中に何個存在するかを表す棒グラフである。例えば、特徴抽出部130は、画像のカラーヒストグラムを0〜1の間の値に正規化したものを1つの特徴量とする(ただし、複数の色それぞれに対して軸を設けてもよい)。同様に、特徴抽出部130は、明度分布やテクスチャも0〜1の値に正規化して特徴量とする。図7の例では、3種類の特徴量で特徴空間を表したが、例示した種類の特徴量に代えて、あるいは例示した種類の特徴量に加えて他の種類の特徴量を用いることもできる。   FIG. 7 is a diagram illustrating an example of the feature space. For example, the feature space is represented by a plurality of axes corresponding to a plurality of types of feature amounts used for image classification. FIG. 7 illustrates a feature space represented by three axes of a color histogram, brightness distribution, and texture. For example, the color histogram is a bar graph representing how many pixels of each color exist in the image. For example, the feature extraction unit 130 normalizes the image color histogram to a value between 0 and 1 as one feature amount (however, an axis may be provided for each of a plurality of colors). Similarly, the feature extraction unit 130 normalizes the brightness distribution and texture to values of 0 to 1 as feature amounts. In the example of FIG. 7, the feature space is represented by three types of feature amounts. However, other types of feature amounts may be used instead of or in addition to the illustrated types of feature amounts. .

図8は、優先度の更新例を示す図である。例えば、優先特徴量決定部140は、マーカーが付与されたある画像の入力を受け付けると、注目領域および非注目領域のそれぞれに対して、カラーヒストグラム、明度分布およびテクスチャの特徴量を抽出する。優先特徴量決定部140は、そのうち注目領域と非注目領域とで最も差の大きな特徴量に投票し、優先度を決定する。図8の例では、優先特徴量決定部140は、各特徴量の優先度が初期値の“0”である状態で、最初に入力された画像について各特徴量を抽出した場合を示している。このとき、カラーヒストグラムについて、注目領域と非注目領域とで特徴量の差が最大であったとする。この場合、優先特徴量決定部140は、カラーヒストグラムに投票する。1回目の判定なので、特徴量優先度テーブル113におけるカラーヒストグラムの優先度が“1”に更新される。こうして、優先特徴量決定部140は、判定回数に対する投票回数の割合により、各特徴量の優先度を更新する。   FIG. 8 is a diagram illustrating an example of updating priority. For example, when receiving an input of a certain image to which a marker is attached, the priority feature amount determination unit 140 extracts a color histogram, a brightness distribution, and a texture feature amount for each of the attention area and the non-attention area. The priority feature amount determination unit 140 votes the feature amount having the largest difference between the attention area and the non-attention area, and determines the priority. In the example of FIG. 8, the priority feature amount determination unit 140 illustrates a case where each feature amount is extracted for the first input image in a state where the priority of each feature amount is the initial value “0”. . At this time, for the color histogram, it is assumed that the feature amount difference between the attention area and the non-attention area is the largest. In this case, the priority feature amount determination unit 140 votes for the color histogram. Since this is the first determination, the priority of the color histogram in the feature amount priority table 113 is updated to “1”. In this way, the priority feature amount determination unit 140 updates the priority of each feature amount based on the ratio of the number of votes to the number of determinations.

図9は、特徴量の重み付けの例を示す図である。特徴重み付け部150は、特徴量テーブル112に登録された特徴量を、特徴量優先度テーブル113に登録された優先度によって重み付けする。例えば、特徴重み付け部150は、特徴量c、優先度a(aは0以上1以下の実数)に対し、c×(a×10)を、重み付け後の特徴量とする。より具体的には、特徴量テーブル112における画像P1の明度分布の特徴量がc=“0.20”であり、特徴量優先度テーブル113の明度分布の優先度がa=“0.2”の場合を考える。この場合、特徴重み付け部150は、画像P1の明度分布の特徴量を、0.20×(0.2×10)=0.20×2=0.40と重み付けする。特徴重み付け部150は、同様にして、特徴量テーブル112の各特徴量に対する重み付けを行う。その結果、特徴重み付け部150は、特徴量テーブル112を基に、重み付け後特徴量テーブル112aを作成する。識別モデル生成部160は、重み付け後特徴量テーブル112aに基づいて、識別モデルを生成する。すなわち、画像処理サーバ100は、優先度に応じて複数の種類の特徴量それぞれの重み付けを行い、重み付けの結果に基づいて、画像の分類に用いられる識別モデルを生成する。   FIG. 9 is a diagram illustrating an example of weighting feature amounts. The feature weighting unit 150 weights the feature amount registered in the feature amount table 112 with the priority registered in the feature amount priority table 113. For example, the feature weighting unit 150 sets c × (a × 10) as a weighted feature amount for the feature amount c and the priority a (a is a real number between 0 and 1). More specifically, the feature amount of the brightness distribution of the image P1 in the feature amount table 112 is c = “0.20”, and the priority of the brightness distribution of the feature amount priority table 113 is a = “0.2”. Consider the case. In this case, the feature weighting unit 150 weights the feature value of the brightness distribution of the image P1 as 0.20 × (0.2 × 10) = 0.20 × 2 = 0.40. Similarly, the feature weighting unit 150 weights each feature quantity in the feature quantity table 112. As a result, the feature weighting unit 150 creates a weighted feature value table 112 a based on the feature value table 112. The identification model generation unit 160 generates an identification model based on the weighted feature quantity table 112a. That is, the image processing server 100 weights each of the plurality of types of feature amounts according to the priority, and generates an identification model used for image classification based on the weighting result.

識別モデルの生成の際に、重み付け後特徴量テーブル112aを用いるということは、特徴空間の各特徴量に対応する軸のスケールを、特徴量優先度テーブル113の優先度に応じた重みを用いて変換することに相当すると考えてもよい。こうすることで、識別モデル生成部160は、分類(ラベル付け)への影響の大きな特徴量をより際立たせて、識別モデルを生成できる。   The use of the weighted feature quantity table 112a when generating the identification model means that the scale of the axis corresponding to each feature quantity in the feature space is used using the weight according to the priority of the feature quantity priority table 113. You may think that it corresponds to converting. In this way, the identification model generation unit 160 can generate an identification model by making feature quantities that have a large influence on classification (labeling) more prominent.

図10は、学習の例を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。
(S1)ラベル受付部120は、ラベル付けの結果とともにマーカー付き画像(画像の情報および当該画像のうちマーカーの領域に相当する座標などを示す情報)を受け付けたか否かを判定する。マーカー付き画像を受け付けた場合、特徴抽出部130は、受け付けた画像から特徴量を抽出し、ラベルとともに特徴量テーブル112に登録して、処理をステップS2に進める。マーカー付き画像を受け付けていない場合、処理をステップS1に進める(マーカー付き画像の到着を待機する)。前述のように、ユーザは、ラベルの決定のために注目した注目領域を示す情報(マーカー)を、マウス、タッチパッド、タッチパネルおよびキーボードなどの入力デバイス12を用いて画像処理サーバ100に入力できる。あるいは、ラベル受付部120は、ネットワーク10に接続されたクライアントコンピュータから、ラベル付けの結果とマーカー付き画像とを受け付けてもよい。
FIG. 10 is a flowchart illustrating an example of learning. In the following, the process illustrated in FIG. 10 will be described in order of step number.
(S1) The label receiving unit 120 determines whether an image with a marker (image information and information indicating coordinates corresponding to a marker region in the image) is received together with a labeling result. When an image with a marker is received, the feature extraction unit 130 extracts a feature amount from the received image, registers it with the label in the feature amount table 112, and advances the process to step S2. If an image with a marker has not been received, the process proceeds to step S1 (waiting for the arrival of an image with a marker). As described above, the user can input information (marker) indicating a region of interest focused on for label determination into the image processing server 100 using the input device 12 such as a mouse, a touch pad, a touch panel, and a keyboard. Alternatively, the label receiving unit 120 may receive a labeling result and an image with a marker from a client computer connected to the network 10.

(S2)優先特徴量決定部140は、ステップS1で受け付けた画像のうち、マーカーで指定される注目領域および非注目領域それぞれの特徴量を基に、特徴量優先度テーブル113を更新する。処理の詳細は後述される。   (S2) The priority feature amount determination unit 140 updates the feature amount priority table 113 based on the feature amounts of the attention area and the non-attention area specified by the markers in the image received in step S1. Details of the processing will be described later.

(S3)特徴重み付け部150は、特徴量テーブル112および特徴量優先度テーブル113に基づいて、重み付け後特徴量テーブル112aを作成する。識別モデル生成部160は、重み付け後特徴量テーブル112aを用いて画像を分類するための識別モデルを生成する。そして、処理をステップS1に進める。   (S3) The feature weighting unit 150 creates a weighted feature value table 112a based on the feature value table 112 and the feature value priority table 113. The identification model generation unit 160 generates an identification model for classifying images using the weighted feature amount table 112a. Then, the process proceeds to step S1.

例えば、画像処理サーバ100は、複数の画像の入力後、生成された識別モデルを用いて既存の画像の“true”、“false”のラベル付けを所定の精度で再現できるようになるまで、ステップS1〜S3の処理を繰り返し行うことが考えられる。   For example, after inputting a plurality of images, the image processing server 100 performs steps until the labeling of “true” and “false” of an existing image can be reproduced with a predetermined accuracy using the generated identification model. It is conceivable to repeat the processing of S1 to S3.

より具体的には、画像処理サーバ100は、N(例えば、Nは2以上の整数)回目に入力された画像に対する特徴量の抽出結果を特徴量テーブル112に登録する。また、優先特徴量決定部140は、当該画像に対するマーカーを基に、特徴量優先度テーブル113を更新する。特徴重み付け部150は、特徴量テーブル112および特徴量優先度テーブル113に基づいて、重み付け後特徴量テーブル112aを作成する。識別モデル生成部160は、重み付け後特徴量テーブル112aに基づいて、識別モデルを生成する。識別モデルが、N個の画像に対するラベル付けを所定の割合(例えば、95%など)で再現していれば、画像処理サーバ100は、上記の学習の手順を終了し、以後は最終的に生成された識別モデルを用いて、到着した画像を分類する。一方、識別モデルがN個の画像に対するラベル付けを所定の精度で再現していなければ、画像処理サーバ100は、N+1回目に入力された画像に対して、上記の学習の手順を実行して、識別モデルを更新し、N+1個の画像に対してラベル付けの再現割合を評価する。こうして、画像処理サーバ100は、識別モデルを更新していき、分類の精度を上げる。   More specifically, the image processing server 100 registers the feature value extraction result for the image input for the Nth time (for example, N is an integer of 2 or more) in the feature value table 112. In addition, the priority feature amount determination unit 140 updates the feature amount priority table 113 based on the marker for the image. The feature weighting unit 150 creates a weighted feature quantity table 112 a based on the feature quantity table 112 and the feature quantity priority table 113. The identification model generation unit 160 generates an identification model based on the weighted feature quantity table 112a. If the identification model reproduces the labeling of the N images at a predetermined rate (for example, 95%), the image processing server 100 ends the above learning procedure, and finally generates it thereafter. The arrived image is classified using the identified identification model. On the other hand, if the identification model does not reproduce the labeling for the N images with a predetermined accuracy, the image processing server 100 executes the above learning procedure for the image input for the N + 1th time, The identification model is updated and the labeling reproduction rate is evaluated for N + 1 images. In this way, the image processing server 100 updates the identification model and increases the classification accuracy.

図11は、特徴量優先度テーブル更新の例を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。以下に示す手順は、図10のステップS2に相当する。   FIG. 11 is a flowchart illustrating an example of updating the feature amount priority table. In the following, the process illustrated in FIG. 11 will be described in order of step number. The procedure shown below corresponds to step S2 in FIG.

(S11)優先特徴量決定部140は、記憶部110に記憶された注目領域決定ルール111に基づいて、受け付けた画像に付与されたマーカーに応じた注目領域を決定する。処理の詳細は後述される。   (S11) Based on the attention area determination rule 111 stored in the storage section 110, the priority feature amount determination section 140 determines the attention area according to the marker assigned to the received image. Details of the processing will be described later.

(S12)優先特徴量決定部140は、注目領域および非注目領域それぞれにおける複数の種類の特徴量を計算する。
(S13)優先特徴量決定部140は、注目領域および非注目領域での特徴量の差が最も大きい特徴量を決定する。
(S12) The priority feature amount determination unit 140 calculates a plurality of types of feature amounts in each of the attention area and the non-attention area.
(S13) The priority feature amount determination unit 140 determines the feature amount having the largest difference between the feature amounts in the attention area and the non-attention area.

(S14)優先特徴量決定部140は、ステップS13で決定した特徴量に投票し、特徴量優先度テーブル113に登録された各特徴量の優先度を更新する。複数の種類の特徴量に対する総投票回数をN回とする。ある特徴量i(iは特徴量の種類を示す)について、これまでに投票された回数をn(i)(nは0以上の整数)とする。この場合、特徴量毎のn(i)の合計がNである。すると、優先特徴量決定部140は、当該特徴量の優先度を、n(i)/Nとする。優先特徴量決定部140は、Nおよび各特徴量に対するn(i)の値を記憶部110により保持しておいてもよい。   (S14) The priority feature amount determination unit 140 votes for the feature amount determined in step S13, and updates the priority of each feature amount registered in the feature amount priority table 113. The total number of votes for a plurality of types of feature values is N. Let n (i) (n is an integer greater than or equal to 0) be the number of votes for a certain feature value i (i indicates the type of feature value). In this case, the total of n (i) for each feature amount is N. Then, the priority feature amount determination unit 140 sets the priority of the feature amount to n (i) / N. The priority feature amount determination unit 140 may hold the values of N and n (i) for each feature amount in the storage unit 110.

図12は、注目領域決定の例を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。以下に示す手順は、図12のステップS11に相当する。   FIG. 12 is a flowchart showing an example of attention area determination. In the following, the process illustrated in FIG. 12 will be described in order of step number. The procedure shown below corresponds to step S11 in FIG.

(S21)優先特徴量決定部140は、ステップS1で受け付けたマーカーおよび画像に関し、マーカーで示される閉じた領域があるか否かを判定する。閉じた領域がある場合、処理をステップS22に進める。閉じた領域がない場合、処理をステップS23に進める。「閉じた領域」とは、マーカーが閉じた線であることに相当する。したがって、優先特徴量決定部140は、ステップS21の判定を、「マーカーが閉じた線であるか否か」により判定してもよい。その場合、マーカーが閉じた線であれば、処理をステップS22に進める。一方、マーカーが閉じた線でなければ、処理をステップS23に進める。   (S21) The priority feature amount determination unit 140 determines whether or not there is a closed region indicated by the marker with respect to the marker and image received in step S1. If there is a closed region, the process proceeds to step S22. If there is no closed area, the process proceeds to step S23. The “closed region” corresponds to the marker being a closed line. Therefore, the priority feature amount determination unit 140 may determine the determination in step S21 based on “whether or not the marker is a closed line”. In this case, if the marker is a closed line, the process proceeds to step S22. On the other hand, if the marker is not a closed line, the process proceeds to step S23.

(S22)優先特徴量決定部140は、注目領域決定ルール111に基づいて、閉じた領域(すなわち、閉じた線で表されるマーカー)の内側を注目領域と決定する。優先特徴量決定部140は、ステップS1で受け付けた画像のうち、注目領域以外の領域を非注目領域と決定する。そして、処理を終了する。   (S22) Based on the attention area determination rule 111, the priority feature amount determination unit 140 determines the inside of the closed area (that is, the marker represented by the closed line) as the attention area. The priority feature amount determination unit 140 determines an area other than the attention area in the image received in step S1 as a non-attention area. Then, the process ends.

(S23)優先特徴量決定部140は、マーカーで示される軌跡に交点があるか否かを判定する。交点がある場合、処理をステップS24に進める。交点がない場合、処理をステップS25に進める。「軌跡に交点がある」とは、例えば、マーカーが交差する複数の線分である場合、前述のように当該複数の線分の交点である。   (S23) The priority feature amount determination unit 140 determines whether or not there is an intersection on the locus indicated by the marker. If there is an intersection, the process proceeds to step S24. If there is no intersection, the process proceeds to step S25. “There are intersections in the trajectory” means, for example, the intersections of a plurality of line segments as described above when the markers intersect with each other.

(S24)優先特徴量決定部140は、注目領域決定ルール111に基づいて、交点の周辺を注目領域と決定する。具体的には、優先特徴量決定部140は、交点を中心とした所定半径の円の内側の領域を注目領域と決定する。そして、処理を終了する。   (S24) Based on the attention area determination rule 111, the priority feature amount determination unit 140 determines the area around the intersection as the attention area. Specifically, the priority feature amount determination unit 140 determines an area inside a circle with a predetermined radius centering on the intersection as the attention area. Then, the process ends.

(S25)優先特徴量決定部140は、注目領域決定ルール111に基づいて、マーカーで示される軌跡部分を覆う長方形を注目領域と決定する。ここで、ステップS21でNoかつステップS23でNoである場合、マーカーは、“1つの線分”に相当する(完全に真っ直ぐな線でなくてもよい)。この場合、優先特徴量決定部140は、当該線分の周辺を含む所定の大きさの長方形の内側の領域を注目領域と決定する。あるいは、優先特徴量決定部140は、線分の長さ方向に延びる当該線分と同じ長さをもつ平行な2つの辺と、当該2つの辺と直行する所定長さの2つの辺とからなる長方形の内側の領域を注目領域と決定してもよい。そして、処理を終了する。   (S25) Based on the attention area determination rule 111, the priority feature amount determination unit 140 determines a rectangle that covers the locus portion indicated by the marker as the attention area. Here, if No in step S21 and No in step S23, the marker corresponds to “one line segment” (not necessarily a completely straight line). In this case, the priority feature amount determination unit 140 determines an area inside a rectangle having a predetermined size including the periphery of the line segment as the attention area. Alternatively, the priority feature amount determination unit 140 includes two parallel sides having the same length as the line segment extending in the length direction of the line segment, and two sides having a predetermined length orthogonal to the two sides. The area inside the rectangle may be determined as the attention area. Then, the process ends.

なお、1つの画像内に複数のマーカーが指定されてもよい。優先特徴量決定部140は、複数のマーカーの形状それぞれに応じて1つの画像から複数の注目領域を抽出してもよい。その場合、優先特徴量決定部140は、複数の注目領域を纏めて1つの注目領域とみなして各特徴量を求め、非注目領域から抽出した各特徴量と比較することが考えられる。   A plurality of markers may be specified in one image. The priority feature amount determination unit 140 may extract a plurality of attention areas from one image according to the shapes of the plurality of markers. In that case, the priority feature amount determination unit 140 may consider a plurality of attention regions as one attention region, obtain each feature amount, and compare it with each feature amount extracted from the non-attention region.

ところで、例えば、ある画像について、人の顔が「映っている」「映っていない」などを分類したい場合、正解(映っている)/不正解(映っていない)のラベルが付けられた画像を大量に用意し、教師あり学習を用いることで分類用の識別モデルを作成し得る。しかし、教師あり学習を開始する際に、学習用の画像集合(訓練データの集合)が手元にないこともある。学習用の画像集合が手元にない場合、順次発生する画像データを用いて学習を行うことが考えられる。しかし、この場合、何れの特徴量を学習に用いるべきかの判断が難しい。この場合、全ての種類の特徴量を平等に扱って学習を行うことも考えられる。しかし、全ての種類の特徴量を平等に扱うと、本来の分類に寄与しない特徴量がノイズとなり、分類の精度が低下し得る。具体的には次の通りである。   By the way, for example, when it is desired to classify a person's face as “reflected” or “not reflected” for an image, an image with a correct answer (shown) / incorrect answer (not shown) is attached. An identification model for classification can be created by preparing a large amount and using supervised learning. However, when starting supervised learning, a learning image set (a set of training data) may not be at hand. If a learning image set is not available, learning may be performed using sequentially generated image data. However, in this case, it is difficult to determine which feature amount should be used for learning. In this case, it is conceivable to perform learning by treating all types of feature quantities equally. However, if all types of feature quantities are treated equally, the feature quantities that do not contribute to the original classification become noise, and the classification accuracy can be reduced. Specifically, it is as follows.

図13は、分類と特徴量との関係を示す図である。図13(A)は、分類に有効な特徴量の例を示している。例えば、特徴量A,Bを用いることで、ある識別モデル(例えば、超平面)により複数の画像を適切な分類先に分類できる。一方、図13(B)は、分類に有効でない特徴量の例を示している。例えば、特徴量C,Dを用いると、複数の画像を適切に分類できる識別モデルの探索が困難になる。このため、特徴量A,B,C,Dという4つの種類の特徴量を平等に扱って学習を行うと、本来の分類に寄与しない特徴量がノイズとなり得る。   FIG. 13 is a diagram illustrating the relationship between the classification and the feature amount. FIG. 13A shows an example of feature quantities effective for classification. For example, by using the feature amounts A and B, a plurality of images can be classified into appropriate classification destinations by a certain identification model (for example, a hyperplane). On the other hand, FIG. 13B shows an example of feature amounts that are not effective for classification. For example, when the feature amounts C and D are used, it becomes difficult to search for an identification model that can appropriately classify a plurality of images. For this reason, when learning is performed by equally treating the four types of feature quantities A, B, C, and D, the feature quantities that do not contribute to the original classification may become noise.

そこで、画像処理サーバ100では、正解又は不正解のラベルとラベル付け時の画像中の注目領域の情報の入力を許容し、注目領域と非注目領域とで特徴量を比較して、複数種の特徴量からラベル付けに有効な特徴量を効率的に絞り込む。注目領域とそれ以外の非注目領域とで大きく値の異なる特徴量は、正否のラベル付けの判断における影響が比較的大きいと考えられるからである。こうして、画像処理サーバ100によれば、学習を効率化できる。特に、本来の分類に寄与する特徴量に絞り込んで学習を行えるので、全ての種類の特徴量を平等に扱って学習を行うよりも、分類の精度を上げることができる。更に、全ての種類の特徴量を平等に扱う場合に比べて、分類モデルの収束が早くなることが期待されるので、学習に要する画像数を少なくでき、学習に伴うコスト(学習のための時間やユーザの作業コストなど)を減らせる。   Therefore, the image processing server 100 allows the input of the correct answer or incorrect answer label and the information on the attention area in the image at the time of labeling, compares the feature amount between the attention area and the non-attention area, Efficiently narrow down the effective features for labeling from the features. This is because it is considered that a feature quantity having a large value in the attention area and the other non-attention areas has a relatively large influence on determination of correct / incorrect labeling. Thus, according to the image processing server 100, learning can be made efficient. In particular, since learning can be performed by narrowing down to feature quantities that contribute to the original classification, classification accuracy can be improved as compared to learning by treating all types of feature quantities equally. Furthermore, since it is expected that the classification model converges faster than when all types of feature values are handled equally, the number of images required for learning can be reduced, and the learning costs (time for learning) can be reduced. And user work costs).

特に、オンライン学習(時々刻々と画像データが生成され、順次生成される画像データを用いて学習を行う手法)の場合は、手元に学習用の画像データのセットがないため、どの特徴量が分類に有効であるかの試行錯誤を行えない。一方、画像処理サーバ100によれば、分類に有効である可能性の高い特徴量に対して順番に、順次到着する画像データを用いて優先度付けし、識別モデルの生成に役立てることができる。このため、画像処理サーバ100は、順次到着する画像データを用いてオンラインで学習を行う場合に特に有用である。   In particular, in the case of online learning (a method in which image data is generated every moment and learning is performed using sequentially generated image data), since there is no set of image data for learning at hand, which feature quantity is classified Trial and error can not be done. On the other hand, according to the image processing server 100, priorities can be given to feature quantities that are likely to be effective for classification in order using image data that arrives in sequence, which can be used to generate an identification model. For this reason, the image processing server 100 is particularly useful when performing online learning using sequentially arrived image data.

次に、第2の実施の形態の変形例を説明する。まず、画像処理サーバ100は、特徴量優先度テーブル113の更新を、図10の手順に代えて、次の手順により実行してもよい。   Next, a modification of the second embodiment will be described. First, the image processing server 100 may update the feature amount priority table 113 by the following procedure instead of the procedure of FIG.

図14は、特徴量優先度テーブル更新の他の例を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。以下に示す手順は、図10のステップS2に相当する。ここで、図14の手順では、ステップS11の次にステップS11aを実行し、ステップS11aの次にステップS12を実行する点が図11の手順と異なる。そこで、以下では、ステップS11aを主に説明し、他のステップの説明を省略する。   FIG. 14 is a flowchart illustrating another example of the feature amount priority table update. In the following, the process illustrated in FIG. 14 will be described in order of step number. The procedure shown below corresponds to step S2 in FIG. Here, the procedure of FIG. 14 is different from the procedure of FIG. 11 in that step S11a is executed next to step S11, and step S12 is executed next to step S11a. Therefore, in the following, step S11a will be mainly described, and description of other steps will be omitted.

(S11a)優先特徴量決定部140は、図10のステップS1で受け付けたマーカーに応じて、各特徴量への重み付けを決定する。例えば、マーカーの形状が「閉じた線」であれば、大域特徴量に区分される特徴量の重みを他の特徴量の重みよりも大きくする。より具体的には、大域特徴量に区分される特徴量を2倍に重み付けし、他の特徴量を1倍に重み付けすることが考えられる。ここで、大域特徴量とは、画像全体を表現する特徴量であり、例えば、カラーヒストグラムなどが考えられる。他の例として、マーカーの形状が「交差する複数の線分」であれば、局所特徴量に区分される特徴量の重みを他の特徴量の重みよりも大きくする。ここで、局所特徴量とは、ある点を表現する特徴量であり、例えば、SIFT(Scale - Invariant Feature Transform)などが考えられる。そして、処理をステップS12に進める。   (S11a) The priority feature amount determination unit 140 determines the weighting to each feature amount according to the marker received in step S1 of FIG. For example, if the shape of the marker is a “closed line”, the weight of the feature amount classified into the global feature amount is set larger than the weights of the other feature amounts. More specifically, it is conceivable to weight the feature quantities classified into the global feature quantities twice and weight other feature quantities one time. Here, the global feature value is a feature value representing the entire image, and for example, a color histogram can be considered. As another example, when the shape of the marker is “a plurality of intersecting line segments”, the weight of the feature amount classified into the local feature amount is set larger than the weight of the other feature amount. Here, the local feature amount is a feature amount expressing a certain point, and, for example, SIFT (Scale-Invariant Feature Transform) can be considered. Then, the process proceeds to step S12.

画像処理サーバ100は、マーカーの形状(すなわち、軌跡の情報)に応じて複数の種類の特徴量それぞれの重み付けを行う。例えば、優先特徴量決定部140は、ステップS11aで決定した重み付けの値を、ステップS13において特徴量の差を求める際に用いてもよい。具体的には、優先特徴量決定部140は、大域特徴量に対して、他の特徴量よりも重み付けするならば、注目領域および非注目領域における大域特徴量の抽出結果に対して、ステップS11aで求めた重みを乗じた上で、特徴量の差を求める。すると、優先特徴量決定部140は、マーカーの形状に応じて各特徴量への投票率(分類に対する重み)を決定できる。また、ユーザは、マーカーの形状により、着目させたい特徴量の種類を、画像処理サーバ100に対して容易に指定可能となる。   The image processing server 100 weights each of a plurality of types of feature amounts in accordance with the shape of the marker (that is, trajectory information). For example, the priority feature amount determination unit 140 may use the weighting value determined in step S11a when obtaining the difference in feature amount in step S13. Specifically, if the global feature value is weighted more than other feature values, the priority feature value determination unit 140 performs step S11a on the global feature value extraction result in the attention area and the non-attention area. Multiplying the weights obtained in step (3), the difference between the feature amounts is obtained. Then, the priority feature amount determination unit 140 can determine the voting rate (weight for classification) for each feature amount according to the shape of the marker. In addition, the user can easily designate the type of feature amount to be focused on to the image processing server 100 according to the shape of the marker.

あるいは、特徴重み付け部150は、特徴量優先度テーブル113の更新の後に実行する図10のステップS3において、特徴量を重み付けする際に、ステップS11aで求めた重みを更に考慮してもよい。例えば、特徴重み付け部150は、ある特徴量に対して、投票率に応じた重みと、ステップS11aで求めた重みとの両方を乗じて、重み付け後の特徴量を求めることが考えられる。この場合も、ユーザは、マーカーの形状により、着目させたい特徴量の種類を、画像処理サーバ100に対して容易に指定可能となる。   Alternatively, the feature weighting unit 150 may further consider the weight obtained in step S11a when weighting the feature amount in step S3 of FIG. 10 executed after the update of the feature amount priority table 113. For example, it is conceivable that the feature weighting unit 150 obtains a weighted feature amount by multiplying a certain feature amount by both the weight according to the vote rate and the weight obtained in step S11a. Also in this case, the user can easily specify the type of feature amount to be focused on to the image processing server 100 by the shape of the marker.

また、第2の実施の形態の例では、画像が1つ到着するたびに、識別モデルを更新するものとしたが、ある程度の数の画像がたまってから、特徴量優先度テーブル113や識別モデルの更新を行ってもよい。例えば、ラベル受付部120は、図10のステップS1でYesと判定した回数をカウントし、当該回数が、所定数に達した場合に、ステップS1でYesと判定した回数のカウントをリセットして、処理をステップS2に進める。ラベル受付部120は、図10のステップS1でYesと判定した回数が所定数に達していない場合、ステップS1でNoの場合、画像の到着を待つ。なお、特徴抽出部130は、各画像に対して各特徴量を抽出し、受け付けたラベルとともに特徴量テーブル112に登録する。更に、ラベル受付部120は、画像とともに入力されたマーカーの情報を、当該画像に対応付けて記憶部110に格納する。   In the example of the second embodiment, the identification model is updated every time one image arrives. However, after a certain number of images are accumulated, the feature amount priority table 113 and the identification model are updated. May be updated. For example, the label receiving unit 120 counts the number of times determined as Yes in step S1 of FIG. 10, and when the number of times reaches a predetermined number, resets the count of the number of times determined as Yes in step S1, The process proceeds to step S2. If the number of times determined Yes in step S1 in FIG. 10 has not reached the predetermined number, the label receiving unit 120 waits for the arrival of an image in the case of No in step S1. The feature extraction unit 130 extracts each feature amount from each image and registers it in the feature amount table 112 together with the received label. Further, the label receiving unit 120 stores the marker information input together with the image in the storage unit 110 in association with the image.

優先特徴量決定部140は、こうして保持された複数の画像、ラベルおよびマーカーの情報に基づいて、特徴量優先度テーブル113を更新することが考えられる。
図15は、優先度の更新の他の例を示す図である。ここでは、優先特徴量決定部140が、3つの画像に対して、投票先の特徴量を決定し、特徴量優先度テーブル113を更新する場合を考える。この場合、優先特徴量決定部140は、3つの画像それぞれの注目領域について、予め定められた複数の種類の特徴量を抽出し、複数の種類の特徴量で表される特徴空間上の座標を求める。すなわち、優先特徴量決定部140は、3つの画像それぞれの注目領域について、特徴空間上の3つの座標を求めることになる。そして、優先特徴量決定部140は、求めた3つの座標の重心を求める。すると、求めた重心の各成分を、3つの画像の注目領域に関する各種の特徴量とみなせる。
It is conceivable that the priority feature amount determination unit 140 updates the feature amount priority table 113 based on the information of the plurality of images, labels, and markers thus held.
FIG. 15 is a diagram illustrating another example of priority update. Here, it is assumed that the priority feature amount determination unit 140 determines the feature amount of the vote destination for the three images and updates the feature amount priority table 113. In this case, the priority feature amount determination unit 140 extracts a plurality of types of feature amounts determined in advance for each region of interest of the three images, and coordinates on the feature space represented by the plurality of types of feature amounts. Ask. That is, the priority feature amount determination unit 140 obtains three coordinates on the feature space for the attention area of each of the three images. Then, the priority feature amount determination unit 140 obtains the center of gravity of the obtained three coordinates. Then, each component of the obtained center of gravity can be regarded as various feature amounts related to the attention area of the three images.

同様にして、優先特徴量決定部140は、3つの画像それぞれの非注目領域について、複数の種類の特徴量を抽出し、特徴空間上の3つの座標を求める。そして、優先特徴量決定部140は、求めた3つの座標の重心を求める。すると、求めた重心の各成分を、3つの画像の非注目領域に関する各種の特徴量とみなせる。   Similarly, the priority feature amount determination unit 140 extracts a plurality of types of feature amounts for the non-attention areas of the three images, and obtains three coordinates on the feature space. Then, the priority feature amount determination unit 140 obtains the center of gravity of the obtained three coordinates. Then, each component of the obtained center of gravity can be regarded as various feature amounts related to the non-attention areas of the three images.

優先特徴量決定部140は、注目領域および非注目領域に対して求めた2つの重心の各成分を比較して、最も差の大きな特徴量を特定する。そして、優先特徴量決定部140は、特定した特徴量に投票し、特徴量優先度テーブル113を更新する。特徴重み付け部150は、特徴量優先度テーブル113が更新されると、特徴量テーブル112および特徴量優先度テーブル113に基づいて、重み付け後特徴量テーブル112aを作成する。識別モデル生成部160は、重み付け後特徴量テーブル112aが新たに作成されると、重み付け後特徴量テーブル112aに基づいて、画像分類用の識別モデルを更新する。   The priority feature quantity determination unit 140 compares the components of the two centroids obtained for the attention area and the non-attention area, and identifies the feature quantity having the largest difference. Then, the priority feature amount determination unit 140 votes for the identified feature amount and updates the feature amount priority table 113. When the feature amount priority table 113 is updated, the feature weighting unit 150 creates a weighted feature amount table 112 a based on the feature amount table 112 and the feature amount priority table 113. When the weighted feature quantity table 112a is newly created, the identification model generation unit 160 updates the identification model for image classification based on the weighted feature quantity table 112a.

このように、画像処理サーバ100は、複数の画像が到着するたびに、特徴量優先度テーブル113や識別モデルの更新を行ってもよい。この場合、画像が到着するたびに更新を行うよりも、ノイズの影響(例えば、分類への寄与が比較的小さい特徴量に投票してしまう可能性)を低減し、分類の精度を一層向上できる。   As described above, the image processing server 100 may update the feature amount priority table 113 and the identification model every time a plurality of images arrive. In this case, it is possible to reduce the influence of noise (for example, the possibility of voting for a feature amount having a relatively small contribution to the classification) and further improve the classification accuracy, rather than updating every time an image arrives. .

なお、第1の実施の形態の情報処理は、演算部1bにプログラムを実行させることで実現できる。また、第2の実施の形態の情報処理は、プロセッサ101にプログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体13に記録できる。   Note that the information processing of the first embodiment can be realized by causing the computing unit 1b to execute a program. The information processing according to the second embodiment can be realized by causing the processor 101 to execute a program. The program can be recorded on a computer-readable recording medium 13.

例えば、プログラムを記録した記録媒体13を配布することで、プログラムを流通させることができる。また、プログラムを他のコンピュータに格納しておき、ネットワーク経由でプログラムを配布してもよい。コンピュータは、例えば、記録媒体13に記録されたプログラムまたは他のコンピュータから受信したプログラムを、RAM102やHDD103などの記憶装置に格納し(インストールし)、当該記憶装置からプログラムを読み込んで実行してもよい。   For example, the program can be distributed by distributing the recording medium 13 on which the program is recorded. Alternatively, the program may be stored in another computer and distributed via a network. For example, the computer stores (installs) a program recorded in the recording medium 13 or a program received from another computer in a storage device such as the RAM 102 or the HDD 103, and reads and executes the program from the storage device. Good.

1 情報処理装置
1a 記憶部
1b 演算部
2 端末装置
G1 画像
G11 第1領域
G12 第2領域
M1 マーカー
T1 重みテーブル
U1 ユーザ
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 1a Memory | storage part 1b Operation part 2 Terminal device G1 Image G11 1st area | region G12 2nd area | region M1 Marker T1 Weight table U1 User

Claims (8)

コンピュータが、
画像と前記画像のうち第1領域を示す情報と前記画像の分類先を示す情報とを取得し、
前記第1領域における複数の種類の特徴量の第1検出結果、および、前記画像のうち前記第1領域以外の第2領域における前記複数の種類の特徴量の第2検出結果の比較に応じて、前記分類先へ前記画像を分類する際の前記複数の種類の特徴量それぞれの重みを決定し、
前記複数の種類の特徴量それぞれを前記重みにより重み付けした結果に基づいて、前記画像の分類の学習を行う、
学習方法。
Computer
Obtaining an image, information indicating a first region of the image, and information indicating a classification destination of the image;
According to a comparison of a first detection result of a plurality of types of feature amounts in the first region and a second detection result of the plurality of types of feature amounts in a second region other than the first region of the image. , Determining the weight of each of the plurality of types of feature amounts when classifying the image to the classification destination,
Based on the result of weighting each of the plurality of types of feature amounts by the weight, learning of the classification of the image is performed.
Learning method.
前記決定では、前記複数の種類の特徴量のうち、前記第1検出結果および前記第2検出結果において差が最も大きい特徴量の重みを、他の特徴量の重みよりも大きくする、請求項1記載の学習方法。   2. In the determination, among the plurality of types of feature amounts, a weight of a feature amount having the largest difference between the first detection result and the second detection result is set larger than the weights of other feature amounts. The learning method described. 前記決定では、今回取得した第1画像に関する前記第1検出結果および前記第2検出結果の比較に応じて、前回取得した第2画像を基に決定した前記複数の種類の特徴量それぞれの前記重みを更新する、請求項1または2記載の学習方法。   In the determination, the weight of each of the plurality of types of feature amounts determined based on the second image acquired last time according to the comparison of the first detection result and the second detection result regarding the first image acquired this time The learning method according to claim 1, wherein the learning method is updated. 前記取得では、前記画像に対して入力された軌跡の情報に応じて前記第1領域の取得方法を選択する、請求項1乃至3の何れか1項に記載の学習方法。   The learning method according to any one of claims 1 to 3, wherein, in the acquisition, a method for acquiring the first region is selected according to trajectory information input to the image. 前記決定では、前記軌跡の情報に応じて前記複数の種類の特徴量それぞれの前記重みを決定する、請求項4記載の学習方法。   The learning method according to claim 4, wherein in the determination, the weight of each of the plurality of types of feature amounts is determined according to the information of the trajectory. 前記取得では、ユーザによる前記画像の分類先および前記軌跡の入力を許容する、請求項4または5記載の学習方法。   The learning method according to claim 4, wherein in the acquisition, the user is allowed to input the classification destination of the image and the locus. 画像と前記画像のうち第1領域を示す情報と前記画像の分類先を示す情報とを記憶する記憶部と、
前記第1領域における複数の種類の特徴量の第1検出結果、および、前記画像のうち前記第1領域以外の第2領域における前記複数の種類の特徴量の第2検出結果の比較に応じて、前記分類先へ前記画像を分類する際の前記複数の種類の特徴量それぞれの重みを決定し、前記複数の種類の特徴量それぞれを前記重みにより重み付けした結果に基づいて、前記画像の分類の学習を行う演算部と、
を有する情報処理装置。
A storage unit that stores an image, information indicating a first area of the image, and information indicating a classification destination of the image;
According to a comparison of a first detection result of a plurality of types of feature amounts in the first region and a second detection result of the plurality of types of feature amounts in a second region other than the first region of the image. Determining the weight of each of the plurality of types of feature amounts when classifying the image to the classification destination, and based on the result of weighting each of the plurality of types of feature amounts by the weight, An arithmetic unit for learning;
An information processing apparatus.
コンピュータに、
画像と前記画像のうち第1領域を示す情報と前記画像の分類先を示す情報とを取得し、
前記第1領域における複数の種類の特徴量の第1検出結果、および、前記画像のうち前記第1領域以外の第2領域における前記複数の種類の特徴量の第2検出結果の比較に応じて、前記分類先へ前記画像を分類する際の前記複数の種類の特徴量それぞれの重みを決定し、
前記複数の種類の特徴量それぞれを前記重みにより重み付けした結果に基づいて、前記画像の分類の学習を行う、
処理を実行させる学習プログラム。
On the computer,
Obtaining an image, information indicating a first region of the image, and information indicating a classification destination of the image;
According to a comparison of a first detection result of a plurality of types of feature amounts in the first region and a second detection result of the plurality of types of feature amounts in a second region other than the first region of the image. , Determining the weight of each of the plurality of types of feature amounts when classifying the image to the classification destination,
Based on the result of weighting each of the plurality of types of feature amounts by the weight, learning of the classification of the image is performed.
A learning program that executes processing.
JP2016044733A 2016-03-08 2016-03-08 Learning method, information processing device and learning program Expired - Fee Related JP6623851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044733A JP6623851B2 (en) 2016-03-08 2016-03-08 Learning method, information processing device and learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044733A JP6623851B2 (en) 2016-03-08 2016-03-08 Learning method, information processing device and learning program

Publications (2)

Publication Number Publication Date
JP2017162098A true JP2017162098A (en) 2017-09-14
JP6623851B2 JP6623851B2 (en) 2019-12-25

Family

ID=59852981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044733A Expired - Fee Related JP6623851B2 (en) 2016-03-08 2016-03-08 Learning method, information processing device and learning program

Country Status (1)

Country Link
JP (1) JP6623851B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200558A (en) * 2018-05-16 2019-11-21 株式会社アドダイス Image processing device and inspection system
JP2021026019A (en) * 2019-07-31 2021-02-22 キヤノン株式会社 Determination device
KR20210036264A (en) * 2019-09-25 2021-04-02 캐논 가부시끼가이샤 Judgement apparatus
JPWO2021206053A1 (en) * 2020-04-06 2021-10-14
US11288550B2 (en) 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
JP2022553866A (en) * 2019-11-06 2022-12-26 オンスケール,インコーポレイテッド Method and system for estimation of computational cost of simulation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101970A (en) * 1995-10-06 1997-04-15 Omron Corp Image search method and image search apparatus
JP2006189915A (en) * 2004-12-28 2006-07-20 Olympus Corp Classification device and classification method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09101970A (en) * 1995-10-06 1997-04-15 Omron Corp Image search method and image search apparatus
JP2006189915A (en) * 2004-12-28 2006-07-20 Olympus Corp Classification device and classification method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小塚 和紀、外6名: ""読影知識に基づく肺疾患類似症例検索技術の開発"", 第32回医療情報学連合大会論文集 (第13回日本医療情報学会学術大会), JPN6019039759, 14 November 2012 (2012-11-14), JP, pages 740 - 743, ISSN: 0004136180 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11288550B2 (en) 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
JP2019200558A (en) * 2018-05-16 2019-11-21 株式会社アドダイス Image processing device and inspection system
JP7235272B2 (en) 2018-05-16 2023-03-08 株式会社アドダイス Image processing device and inspection system
JP2021026019A (en) * 2019-07-31 2021-02-22 キヤノン株式会社 Determination device
JP7366626B2 (en) 2019-07-31 2023-10-23 キヤノン株式会社 judgment device
KR20210036264A (en) * 2019-09-25 2021-04-02 캐논 가부시끼가이샤 Judgement apparatus
KR102772867B1 (en) 2019-09-25 2025-02-25 캐논 가부시끼가이샤 Judgement apparatus
JP2022553866A (en) * 2019-11-06 2022-12-26 オンスケール,インコーポレイテッド Method and system for estimation of computational cost of simulation
JP7676383B2 (en) 2019-11-06 2025-05-14 オンスケール,インコーポレイテッド Method and system for estimating the computational cost of a simulation - Patents.com
JPWO2021206053A1 (en) * 2020-04-06 2021-10-14
JP7236202B2 (en) 2020-04-06 2023-03-09 国立大学法人 新潟大学 Data generation device, data generation method and program
US12387339B2 (en) 2020-04-06 2025-08-12 Niigata University Data generation apparatus, data generation method, and program

Also Published As

Publication number Publication date
JP6623851B2 (en) 2019-12-25

Similar Documents

Publication Publication Date Title
US10936911B2 (en) Logo detection
US9349076B1 (en) Template-based target object detection in an image
JP6623851B2 (en) Learning method, information processing device and learning program
CN106290378B (en) Defect classification method and defect inspection system
CN107408209B (en) System and method for defect classification in semiconductor processing
US11354549B2 (en) Method and system for region proposal based object recognition for estimating planogram compliance
US11017210B2 (en) Image processing apparatus and method
US10565703B2 (en) Image inspection device, image inspection method, and image inspection program
WO2018108129A1 (en) Method and apparatus for use in identifying object type, and electronic device
JP6872044B2 (en) Methods, devices, media and equipment for determining the circumscribed frame of an object
CN109284749A (en) Refined Image Recognition
WO2019026104A1 (en) Information processing device, information processing program, and information processing method
JP2017033529A (en) Image recognition method, image recognition device and program
JP2021051589A5 (en)
WO2020134411A1 (en) Merchandise category recognition method, apparatus, and electronic device
US20200320419A1 (en) Method and device of classification models construction and data prediction
CN115053238A (en) Adaptive co-distillation model
CN110084245B (en) Weak supervision image detection method and system based on visual attention mechanism reinforcement learning
JP6958719B2 (en) Image analyzer, image analysis method and image analysis program
JP2020204800A (en) Learning dataset generation system, learning server, and learning dataset generation program
CN117992765B (en) Partial label learning method, device, equipment and medium based on dynamic emerging tags
CN114708462A (en) Method, system, device and storage medium for generating detection model for multi-data training
CN111832381B (en) Object information registration device and object information registration method
JP7024197B2 (en) Image processing equipment, image processing methods and programs
JP7006782B2 (en) Information processing equipment, control methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R150 Certificate of patent or registration of utility model

Ref document number: 6623851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees