JP2023000929A - Machine learning device and machine learning method - Google Patents
Machine learning device and machine learning method Download PDFInfo
- Publication number
- JP2023000929A JP2023000929A JP2021102015A JP2021102015A JP2023000929A JP 2023000929 A JP2023000929 A JP 2023000929A JP 2021102015 A JP2021102015 A JP 2021102015A JP 2021102015 A JP2021102015 A JP 2021102015A JP 2023000929 A JP2023000929 A JP 2023000929A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- learning model
- output
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、機械学習装置、および、機械学習方法に関する。 TECHNICAL FIELD Embodiments of the present invention relate to a machine learning device and a machine learning method.
近年、データを入力してそのデータの特徴量(中間出力データ)や最終出力データを出力する学習モデルの研究開発が多く行われている。このような学習モデルによれば、例えば、画像データから人や車両などを検出することができる。また、学習モデルの学習時のデータとしては、実データのほかに、合成データが用いられる場合もある。そうすれば、例えば、実データが少ない場合でも、合成データを用いることで、学習用データを多くすることができる。 2. Description of the Related Art In recent years, much research and development has been carried out on learning models that input data and output feature amounts (intermediate output data) and final output data of the data. According to such a learning model, for example, it is possible to detect people, vehicles, and the like from image data. In addition to real data, synthetic data may also be used as data for learning a learning model. Then, for example, even if there is little actual data, it is possible to increase the amount of learning data by using synthetic data.
しかしながら、従来技術においては、合成データが実データと異なる特性を有している可能性があり、合成データを用いて作成された学習モデルの精度が高くない場合が多かった。 However, in the prior art, synthetic data may have characteristics different from those of actual data, and learning models created using synthetic data are often not highly accurate.
そこで、本発明は、上述の事情に鑑みてなされたものであり、合成データを用いた場合でも高精度な学習モデルを安定して作成することができる機械学習装置、および、機械学習方法を提供することを課題とする。 Therefore, the present invention has been made in view of the above circumstances, and provides a machine learning device and a machine learning method that can stably create a highly accurate learning model even when synthetic data is used. The task is to
実施形態の機械学習装置は、例えば、データを入力して前記データの特徴量を出力する第1学習モデルと、前記第1学習モデルから出力された前記特徴量を入力して前記第1学習モデルに入力されたデータが実データであるか否かの識別誤差を出力する第2学習モデルと、前記第2学習モデルから出力された前記識別誤差を入力して合成データに対して前記実データの特徴が付与された生成データを出力する第3学習モデルと、を記憶する記憶部と、前記第1学習モデルに、前記実データ、前記合成データ、前記生成データを入力して、出力された前記特徴量に基づいて前記第2学習モデルを機械学習する第2の処理を行う第2学習処理部と、前記第2学習モデルに、前記第1学習モデルから出力された前記特徴量を入力して、出力された前記識別誤差に基づいて前記第3学習モデルを機械学習する第3の処理を行う第3学習処理部と、前記第3学習モデルに、前記第2学習モデルから出力された前記識別誤差を入力して、出力された前記生成データに基づいて前記第1学習モデルを機械学習する第1の処理を行う第1学習処理部と、を備える。
この構成によれば、例えば、第3学習モデルによって合成データに対して実データの特徴が付与された生成データを出力し、その生成データを用いることで、高精度な第1学習モデルを安定して作成することができる。
The machine learning device of the embodiment includes, for example, a first learning model that inputs data and outputs a feature amount of the data, and a first learning model that inputs the feature amount output from the first learning model. a second learning model that outputs a discrimination error as to whether or not the data input to is real data; a storage unit that stores a third learning model that outputs generated data to which features are added; a second learning processing unit that performs a second process of machine learning the second learning model based on the feature amount; and inputting the feature amount output from the first learning model to the second learning model. a third learning processing unit that performs a third process of machine-learning the third learning model based on the output identification error; a first learning processing unit that inputs an error and performs a first process of machine learning the first learning model based on the output generated data.
According to this configuration, for example, the third learning model outputs the generated data in which the features of the real data are added to the synthetic data, and by using the generated data, the highly accurate first learning model is stabilized. can be created by
また、実施形態の機械学習装置は、例えば、前記第2の処理および前記第3の処理を、第1の繰り返し終了条件を満たすまで繰り返し、その後に、前記第1の処理を行う、という一連の処理を、第2の繰り返し終了条件を満たすまで繰り返す。
この構成によれば、例えば、上述の全体の繰り返し処理を行うことで、第1学習モデルの精度をより向上させることができる。
Further, the machine learning device of the embodiment repeats the second process and the third process until a first repetition end condition is satisfied, and then performs the first process. The process is repeated until the second iteration end condition is met.
According to this configuration, the accuracy of the first learning model can be further improved by, for example, repeating the entire above-described processing.
また、実施形態の機械学習装置は、例えば、前記合成データと前記生成データとの差分を算出する差分算出処理部を、さらに備え、前記第3学習処理部は、さらに前記差分を用いて前記第3の処理を行う。
この構成によれば、例えば、上述の差分を用いることで、第3学習処理部が合成データを実データに近づけるためだけに合成データからかけ離れた生成データを生成してしまう事態を回避できる。
Further, the machine learning device of the embodiment further includes, for example, a difference calculation processing unit that calculates a difference between the synthesized data and the generated data, and the third learning processing unit further uses the difference to calculate the third Perform the process of 3.
According to this configuration, for example, by using the above-described difference, it is possible to avoid a situation where the third learning processing unit generates generated data that is far from the synthesized data just to bring the synthesized data closer to the real data.
また、実施形態の機械学習装置は、例えば、前記第3学習処理部は、前記識別誤差と、前記差分と、に重みを付けて前記第3の処理を行う。
この構成によれば、例えば、全体の繰り返し処理の前半と後半で重みを変えるなど、場面に応じた重み付けによって、第1学習モデルのさらなる精度向上や演算処理の短時間化などを実現できる。
Further, in the machine learning device of the embodiment, for example, the third learning processing unit weights the identification error and the difference and performs the third processing.
According to this configuration, it is possible to further improve the accuracy of the first learning model and shorten the computation processing time by weighting according to the scene, such as changing the weights in the first half and the second half of the entire repeated processing.
また、実施形態の機械学習方法は、例えば、データを入力して前記データの特徴量を出力する第1学習モデルと、前記第1学習モデルから出力された前記特徴量を入力して前記第1学習モデルに入力されたデータが実データであるか否かの識別誤差を出力する第2学習モデルと、前記第2学習モデルから出力された前記識別誤差を入力して合成データに対して前記実データの特徴が付与された生成データを出力する第3学習モデルと、を用いた機械学習方法であって、前記第1学習モデルに、前記実データ、前記合成データ、前記生成データを入力して、出力された前記特徴量に基づいて前記第2学習モデルを機械学習する第2の処理を行う第2学習処理ステップと、前記第2学習モデルに、前記第1学習モデルから出力された前記特徴量を入力して、出力された前記識別誤差に基づいて前記第3学習モデルを機械学習する第3の処理を行う第3学習処理ステップと、前記第3学習モデルに、前記第2学習モデルから出力された前記識別誤差を入力して、出力された前記生成データに基づいて前記第1学習モデルを機械学習する第1の処理を行う第1学習処理ステップと、を含む。
この構成によれば、例えば、第3学習モデルによって合成データに対して実データの特徴が付与された生成データを出力し、その生成データを用いることで、高精度な第1学習モデルを安定して作成することができる。
Further, the machine learning method of the embodiment includes, for example, a first learning model that inputs data and outputs a feature amount of the data, and a first learning model that inputs the feature amount output from the first learning model. a second learning model that outputs a discrimination error indicating whether or not data input to the learning model is real data; and a third learning model that outputs generated data to which data features are added, wherein the actual data, the synthetic data, and the generated data are input to the first learning model. a second learning processing step of performing a second process of machine-learning the second learning model based on the output feature amount; and providing the second learning model with the feature output from the first learning model a third learning processing step of performing a third process of inputting a quantity and performing machine learning of the third learning model based on the output identification error; a first learning processing step of inputting the outputted identification error and performing a first processing of machine learning the first learning model based on the outputted generated data.
According to this configuration, for example, the third learning model outputs the generated data in which the features of the real data are added to the synthetic data, and by using the generated data, the highly accurate first learning model is stabilized. can be created by
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Illustrative embodiments of the invention are disclosed below. The configurations of the embodiments shown below and the actions, results, and effects brought about by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .
本実施形態の理解を容易にするために、従来技術についてあらためて説明する。また、以下では、機械学習や学習モデルのことをAI(Artificial Intelligence)ともいう。 In order to facilitate understanding of the present embodiment, the related art will be explained again. Machine learning and learning models are hereinafter also referred to as AI (Artificial Intelligence).
一般に、AIを合成データで学習させると実データに適合しなくなる課題がある。これは、AIによって算出される特徴量が、合成データと実データで大きくギャップを有しているためと考えられている。このギャップを埋める手法として、これまでに、例えば、以下の手法1~3が提案されている。 In general, there is a problem that when AI is trained on synthetic data, it does not match real data. It is believed that this is because there is a large gap between synthetic data and real data in feature amounts calculated by AI. As methods for filling this gap, for example, the following methods 1 to 3 have been proposed so far.
手法1(特許文献1)では、CG(Computer Graphics)データと実写データを分類する識別器を用いて、CGデータと実写データが分類されるようにCGデータを修正することで、CGデータと実写データの間のギャップを埋める。 In method 1 (Patent Document 1), a discriminator that classifies CG (Computer Graphics) data and real-world data is used to correct CG data so that the CG data and real-world data are classified, so that CG data and real-world data are classified. Fill gaps between data.
また、手法2(特許文献2)では、学習対象のAIが算出する実写データ/CGデータの特徴量の分布の距離を測り、それが小さくなるような制約をかけてAIを学習させることで、実写データ/CGデータの特徴量のギャップを埋める。 Also, in Method 2 (Patent Document 2), the distance of the distribution of the feature amount of the live-action data/CG data calculated by the AI to be learned is measured, and by making the AI learn with a constraint that the distance becomes small, To fill the feature amount gap between actual data/CG data.
また、手法3(特許文献3)では、CGデータと実写データの特徴量のギャップ(オフセット)を特定する仕組みをAIに組み込み、オフセットを差し引いた特徴量でAIを学習することで、CGデータ/実写データのギャップを埋める。 In addition, in method 3 (Patent Document 3), a mechanism for identifying the gap (offset) between the feature amount of CG data and actual data is incorporated into AI, and by learning AI with the feature amount after subtracting the offset, CG data / Filling the gaps in live-action data.
手法1~3は、CGデータ/実写データのギャップを埋める技術であるが、課題がある。例えば、人目線でCGデータを実写データに近づけるという手法では、人が見て実写データっぽくなったからAIにとっても実写データに近いだろうという考え方がベースになっている。しかし、AIが人と同じ特徴で画像を認識しているとは限らない。そのため、実際にCGデータで学習するAIから見て、CGデータが実写データに近づいているかどうかはわからない。つまり、CGデータでAIが有効な学習をできるとは限らない。 Methods 1 to 3 are techniques for filling the gap between CG data/actual data, but there are problems. For example, in the method of making CG data look like real-life data from a human perspective, it is based on the idea that since it looks like real-life data to humans, it will also be close to real-life data for AI. However, AI does not always recognize images with the same characteristics as humans. Therefore, AI that actually learns from CG data cannot know whether the CG data is close to the actual data. In other words, it is not always possible for AI to learn effectively with CG data.
また、CGデータ/実写データのギャップを埋める仕組みをCGデータで学習するAIに組み込む手法では、AIに実写データ/CGデータの両方に適合するように(特徴量を算出できるように)学習するが、実写データのみで学習したAIの性能向上をしたい場合(既存のAIの性能改善をする場合)にこの手法を用いると、CGデータにも適合しようとして実写データへの適合性が低下するリスクが発生する。 In addition, in the method of incorporating a mechanism that fills the gap between CG data / live-action data into AI that learns with CG data, AI learns so that it is suitable for both live-action data / CG data (so that it can calculate the feature amount). , If you want to improve the performance of AI that has learned only with live-action data (improving the performance of existing AI), using this method may reduce the suitability for live-action data by trying to adapt to CG data. Occur.
つまり、合成データが実データと異なる特性を有している可能性があり、従来技術では、合成データを用いて作成された学習モデルの精度が高くない場合が多かった。 In other words, the synthetic data may have different characteristics from the actual data, and in the conventional technology, the accuracy of the learning model created using the synthetic data is often not high.
そこで、以下において、合成データを用いた場合でも高精度な学習モデルを安定して作成することができる技術について説明する。 Therefore, a technique for stably creating a highly accurate learning model even when synthetic data is used will be described below.
図1は、機械学習装置100のハードウェア構成の一例を示す図である。図1に示すように、機械学習装置100は、プロセッサ101、ROM102、RAM103、入力部104、表示部105、通信I/F106、HDD107を備える。この例では、機械学習装置100は、通常のコンピュータと同様のハードウェア構成を有している。なお、機械学習装置100が有するハードウェア要素は図1に例示したハードウェア要素に限られるものではなく、例えば、カメラなどをさらに備える形態であっても構わない。
FIG. 1 is a diagram showing an example of a hardware configuration of a
プロセッサ101は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro processing unit)等で構成されるハードウェア回路である。プロセッサ101は、プログラムを実行することにより、機械学習装置100の動作を統括的に制御し、機械学習装置100が有する各種の機能を実現する。機械学習装置100が有する各種の機能については後述する。
The
ROM102は、不揮発性のメモリであり、機械学習装置100を起動させるためのプログラムを含む各種データを記憶する。RAM103は、プロセッサ101の作業領域を有する揮発性のメモリである。
The ROM 102 is a non-volatile memory and stores various data including programs for activating the
入力部104は、機械学習装置100を使用するユーザが各種の操作を行うためのデバイスである。入力部104は、例えば、マウス、キーボード、タッチパネル、ハードウェアキー等で構成される。
The
表示部105は、各種の情報を表示する。表示部105は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなどで構成される。なお、例えば、タッチパネルのような形態で、入力部104と表示部105とが一体に構成されてもよい。通信I/F106は、ネットワークと接続するためのインタフェースである。HDD(Hard Disk Drive)107は、各種データを格納する。
The display unit 105 displays various information. The display unit 105 is configured by, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or the like. Note that, for example, the
図2は、実施形態の機械学習装置100の機能構成を示す図である。機械学習装置100は、処理部1と、記憶部2と、を備える。記憶部2は、例えば、ROM102、RAM103、HDD107によって実現される。記憶部2は、各種データを記憶する。記憶部2は、例えば、第1学習モデル21、第2学習モデル22、第3学習モデル23を記憶する。なお、それぞれの学習モデルは処理部1によって用いられるデータであるが、以下では、説明の便宜上、学習モデルが入力や出力を行うような記載をする場合がある。
FIG. 2 is a diagram showing the functional configuration of the
また、第1学習モデル21、第2学習モデル22、第3学習モデル23のうち、精度向上を図る直接の対象は第1学習モデル21である。第2学習モデル22、第3学習モデル23は、その第1学習モデル21の精度向上のために用いられる。また、以下において、実データとは、実際に得られたデータであり、例えば、実写データである。また、合成データとは、実データの代用として合成されたデータであり、例えば、CGデータである。また、生成データとは、合成データに対して実データの特徴が付与されたデータ(合成データを加工したデータ)である。
Further, among the
ここで、図3は、実施形態において、(a)合成データと、(b)生成データの例を示す図である。図3(a)に示す合成データに対して実データの特徴が付与されたデータが、図3(b)に示す生成データである。なお、この図3では、両データの違いを道路R上の車両Cの影の有無だけとしたが、これに限定されない。例えば、車両Cの部分にもっと複雑な加工がされる場合もあり、また、車両C以外の道路R等の部分に加工がされる場合もある。 Here, FIG. 3 is a diagram showing an example of (a) synthesized data and (b) generated data in the embodiment. The generated data shown in FIG. 3B is obtained by adding the features of the real data to the synthetic data shown in FIG. 3A. In FIG. 3, the only difference between the two data is the presence or absence of the shadow of the vehicle C on the road R, but the present invention is not limited to this. For example, the vehicle C portion may be processed more complicatedly, and the road R other than the vehicle C may be processed.
図2に戻って、第1学習モデル21は、データ(実データ、合成データ、実データ)を入力してデータの特徴量(中間出力データ)や最終出力データを出力する。なお、第1学習モデル21を含む機械学習の種類は任意である。
Returning to FIG. 2, the
第2学習モデル22は、第1学習モデル21から出力された特徴量(中間出力データ)や最終出力データを入力して第1学習モデル21に入力されたデータが実データであるか否かを識別し、その識別誤差を出力する。なお、第2学習モデル22は、第1学習モデル21に入力されたデータが実データであるか否かの正解データ(例えば、実データ、合成データ、生成データの区別を示すラベル)を取得することで、識別結果が正しいか否かを判定し、識別誤差を算出することができる。
The second learning model 22 inputs the feature amount (intermediate output data) and final output data output from the
第3学習モデル23は、第2学習モデル22から出力された識別誤差を入力して合成データに対して実データの特徴が付与された生成データを出力する。 The third learning model 23 receives the identification error output from the second learning model 22 and outputs generated data obtained by adding the features of the real data to the synthetic data.
処理部1は、ROM102やHDD107に記憶されているプログラムをプロセッサ101が実行することで、実現される。処理部1は、各種演算処理を実行する。処理部1は、機能構成として、第1学習処理部11、第2学習処理部12、第3学習処理部13、推定処理部14、設定部15、差分算出処理部16、制御部17を備える。
The processing unit 1 is implemented by the
ここで、図4は、実施形態における第2学習モデル22の学習の説明図である。第2学習処理部12は、第1学習モデル21に、実データ、合成データ、生成データを入力して、出力された特徴量(中間出力データ)や最終出力データに基づいて第2学習モデル22を機械学習する第2の処理を行う。なお、最初の時点では、生成データは無いので、実データと合成データによってこの第2の処理を行う。
Here, FIG. 4 is an explanatory diagram of learning of the second learning model 22 in the embodiment. The second
また、図5は、実施形態における第3学習モデル23の学習の説明図である。第3学習処理部13は、第2学習モデル22に、第1学習モデル21から出力された特徴量(中間出力データ)や最終出力データを入力して、出力された識別誤差に基づいて第3学習モデル23を機械学習する第3の処理を行う。
FIG. 5 is an explanatory diagram of learning of the third learning model 23 in the embodiment. The third
また、差分算出処理部16は、合成データと生成データとの差分を算出する。そして、第3学習処理部13は、さらにその差分を用いて第3の処理を行う。また、第3学習処理部13は、識別誤差と、差分と、に重みを付けて第3の処理を行うようにしてもよい。第3学習処理部13について、以下でさらに具体的に説明する。
Also, the difference
第3学習処理部13は、例えば、第2学習モデル22による識別誤差(0~1)をeとしたときに、(1-e)を第3学習モデル23の誤差として、第3学習モデル23へフィードバックする。つまり、第3学習処理部13は、第3学習モデル23の誤差が小さくなるように、合成データを変換する方法を学習する。このとき、第3学習処理部13は、差分算出処理部16により算出される合成データと生成データの差分に基づいて、合成データと生成データがかけ離れないようにする。これにより、第3学習処理部13は、第1学習モデル21が実データと騙されるような生成データを生成する。また、第3学習処理部13は、第3学習モデル23の学習時に、識別誤差と、差分と、に重みを付けてもよい。例えば、学習初期は第2学習モデル22の識別誤差の重みを大きくし、ある程度、第1学習モデル21が騙されるようになったら、合成データ/生成データの差分の重みを大きくすればよい。
For example, when the identification error (0 to 1) by the second learning model 22 is e, the third
また、図6は、実施形態における第1学習モデル21の学習の説明図である。第1学習処理部11は、第3学習モデル23に、第2学習モデル22から出力された識別誤差を入力して、出力された生成データに基づいて第1学習モデル21を機械学習する第1の処理を行う。また、この機械学習において、第1学習モデル21には実データも入力される。
FIG. 6 is an explanatory diagram of learning of the
図2に戻って、また、処理部1は、例えば、第2の処理および第3の処理を、第1の繰り返し終了条件を満たすまで繰り返し、その後に、第1の処理を行う、という一連の処理を、第2の繰り返し終了条件を満たすまで繰り返す(詳細は図7を用いて後述)。 Returning to FIG. 2, the processing unit 1 repeats, for example, the second processing and the third processing until the first repetition end condition is satisfied, and then performs the first processing. The process is repeated until the second repetition end condition is satisfied (details will be described later with reference to FIG. 7).
推定処理部14は、学習が完了した第1学習モデル21に対してデータを入力してデータの特徴量(中間出力データ)や最終出力データを出力することで、物体検出等の推定処理を行う。
The estimation processing unit 14 performs estimation processing such as object detection by inputting data to the
設定部15は、各種パラメータや重み付けの設定等を行う。 The setting unit 15 sets various parameters, weighting, and the like.
制御部17は、各部11~16による処理以外の処理を行う。制御部17は、例えば、各種情報を表示部105に表示する制御を行う。 The control unit 17 performs processing other than the processing by each unit 11-16. The control unit 17 controls display of various information on the display unit 105, for example.
次に、機械学習装置100によって実行される処理について説明する。図7は、実施形態の機械学習装置100によって実行される処理を示すフローチャートである。
Next, processing executed by the
まず、ステップS1において、第2学習処理部12は、第1学習モデル21に、実データ、合成データを入力して、出力された特徴量(中間出力データ)や最終出力データに基づいて第2学習モデル22を機械学習する第2の処理を行う(図4)。
First, in step S1, the second
次に、ステップS2において、第2学習処理部12は、学習が完了したか、つまり、所定の学習終了条件を満たしたか否かを判定し、Yesの場合はステップS3に進み、Noの場合はステップS1に戻る。なお、ここでの学習終了条件としては、例えば、第2学習モデル22の学習時の損失(loss)について設けられた条件などが考えられる。さらに具体的には、ここでの学習終了は、学習データに対するlossと検証データに対するlossのバランスで判定することが一般的だが、early stopping等の自動的に学習完了を判断する仕組みを用いてもよい。
Next, in step S2, the second
ステップS3において、第3学習処理部13は、第2学習モデル22に、第1学習モデル21から出力された特徴量(中間出力データ)や最終出力データを入力して、出力された識別誤差に基づいて第3学習モデル23を機械学習する第3の処理を行う。
In step S3, the third
次に、ステップS4において、第3学習処理部13は、学習が完了したか、つまり、所定の学習終了条件を満たしたか否かを判定し、Yesの場合はステップS5に進み、Noの場合はステップS3に戻る。なお、ここでの学習終了条件としては、例えば、第2学習モデル22の識別誤差や学習回数などが考えられる。さらに具体的には、ここでの学習終了は、例えば、第2学習モデル22が実データと生成データを正しく識別できなくなったとき(正しく識別できた割合が0.5前後になったとき)である。そして、学習初期に偶然、0.5前後になる場合を考慮して、一定回数の学習回数があることを学習終了条件としてもよい。
Next, in step S4, the third
ステップS5において、処理部1は、第1の繰り返し終了条件を満たしたか否かを判定し、Yesの場合はステップS6に進み、Noの場合はステップS1に戻る。第1の繰り返し終了条件としては、例えば、繰り返し回数(N1)が考えられる。 In step S5, the processing section 1 determines whether or not the first repetition end condition is satisfied. If Yes, the process proceeds to step S6, and if No, the process returns to step S1. As the first repetition end condition, for example, the number of repetitions (N1) can be considered.
ステップS1~S4の繰り返しによって洗練された(現実化処理が進んだ)生成データを使って、ステップS6以降で、合成データを活用して性能向上を狙う第1学習モデル21を学習する。例えば、学習対象が物体検出のAI(第1学習モデル21)であれば、生成データを教師データとして検出対象物の種類や位置の情報を与えて、正しく検出できるように学習する。この教師データは合成データを作成時に作成しておく。以下、ステップS6以降について説明する。
Using generated data that has been refined by repeating steps S1 to S4 (actualization processing has progressed), the
ステップS6において、第1学習処理部11は、第3学習モデル23に、第2学習モデル22から出力された識別誤差を入力して、出力された生成データに基づいて第1学習モデル21を機械学習する第1の処理を行う。
In step S6, the first learning processing unit 11 inputs the identification error output from the second learning model 22 to the third learning model 23, and converts the
次に、ステップS7において、第1学習処理部11は、学習が完了したか、つまり、所定の学習終了条件を満たしたか否かを判定し、Yesの場合はステップS8に進み、Noの場合はステップS6に戻る。なお、ここでの学習終了条件としては、例えば、第1学習モデル21の学習時の損失(loss)について設けられた条件などが考えられる。
Next, in step S7, the first learning processing unit 11 determines whether or not learning is completed, that is, whether or not a predetermined learning end condition is satisfied. Return to step S6. Note that, as the learning termination condition here, for example, a condition provided for a loss during learning of the
ステップS8において、処理部1は、第2の繰り返し終了条件を満たしたか否かを判定し、Yesの場合は処理を終了し、Noの場合はステップS1に戻る。第2の繰り返し終了条件としては、例えば、繰り返し回数(N2)が考えられる。 In step S8, the processing unit 1 determines whether or not the second repetition end condition is satisfied. If Yes, the process ends, and if No, the process returns to step S1. As the second repetition end condition, for example, the number of repetitions (N2) can be considered.
なお、ステップS6の繰り返しで第1学習モデル21の学習が進むと、第1学習モデル21が実データ/生成データから算出する特徴量が変わりえる。そのため、第2学習モデル22の学習(ステップS1)と第3学習モデル23の学習(ステップS3)を再度行う必要があるのでステップS1に戻るが、そのとき、第2学習モデル22、第3学習モデル23は学習前の初期状態に戻しておく。以上を繰り返すことで、合成データ(生成データ)を使って第1学習モデル21の性能向上ができる。
Note that as the learning of the
このように、本実施形態の機械学習装置100によれば、第3学習モデル23によって合成データに対して実データの特徴が付与された生成データを出力し、その生成データを用いることで、高精度な第1学習モデル21を安定して作成することができる。つまり、合成データを使って性能向上をさせたい第1学習モデル21の目線で合成データを実データに近づけて(現実化処理して)生成データを生成するため、実データ相当の学習効果が期待できる。
As described above, according to the
また、図7の全体の繰り返し処理を行うことで、第1学習モデル21の精度をより向上させることができる。
Further, by repeating the entire process of FIG. 7, the accuracy of the
また、上述の差分を用いることで、第3学習処理部13が合成データを実データに近づけるためだけに合成データからかけ離れた生成データを生成してしまう事態を回避できる。
Moreover, by using the above-described difference, it is possible to avoid a situation in which the third
また、図7の全体の繰り返し処理の前半と後半で上述の重みを変えるなど、場面に応じた重み付けによって、第1学習モデル21のさらなる精度向上や演算処理の短時間化などを実現できる。 Also, by weighting according to the scene, such as changing the above-mentioned weights in the first half and the second half of the entire iterative process in FIG.
なお、第1学習モデル21において用いられる特徴量の数は、数万~数十億と多い。したがって、実データと合成データのそれぞれの特徴量に関する特性は、人間には正確に把握できない。本実施形態の機械学習装置100によれば、第1学習モデル21が実データと騙されるような生成データを生成することにより、そのような生成データを用いて高精度な第1学習モデル21を安定して作成できる。
The number of feature values used in the
また、合成データ(生成データ)を使って第1学習モデル21を学習する際に、性能向上をさせたい第1学習モデル21に特別な仕組みを持たせる必要がないため、既存のAI(第1学習モデル21)を有効に活用できる。
In addition, when learning the
また、実データと合成データのギャップを埋める現実化処理を行う第3学習モデル23の学習と、性能向上をさせたい第1学習モデル21の学習のサイクルを繰り返すことで、双対的に性能向上を図ることができる。これにより、従来技術よりも有意に第1学習モデル21を性能向上することが期待できる。
In addition, by repeating the cycle of learning the third learning model 23 that performs realization processing to fill the gap between the real data and the synthetic data and learning the
なお、上述した実施形態における、上記情報処理を実行するためのプログラムを、インストール可能な形式または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等のコンピュータで読み取り可能な記録媒体に記録して提供するようにしてもよい。また、当該プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、当該プログラムを、ROM等に予め組み込んで提供するようにしてもよい。 It should be noted that the program for executing the information processing in the above-described embodiment can be stored as a file in an installable format or an executable format on a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk). ), USB (Universal Serial Bus) memory or other computer-readable recording medium. Also, the program may be provided or distributed via a network such as the Internet. Alternatively, the program may be provided by being incorporated in a ROM or the like in advance.
また、当該プログラムは、上記各機能構成を含むモジュール構成となっており、実際のハードウェアとしては、例えば、CPU(プロセッサ回路)がROMまたはHDDから当該プログラムを読み出して実行することにより、上述した各機能部がRAM上にロードされ、上述した各機能部がRAM上に生成されるようになっている。なお、上述した各機能部の一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェアを用いて実現することも可能である。 In addition, the program has a module configuration including each of the above functional configurations. Each functional unit is loaded onto the RAM, and each functional unit described above is generated on the RAM. Part or all of the functional units described above can also be realized using dedicated hardware such as ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array).
なお、実施形態について説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment has been described, the above embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiments described above can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The above embodiments are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
例えば、対象となるデータは、実写データ/CGデータのような画像データに限定されず、ほかに、センサデータ(波形データなど)などであってもよい。 For example, the target data is not limited to image data such as photographed data/CG data, and may be sensor data (waveform data, etc.).
また、第2学習モデル22によって実データと合成データ(生成データ)を識別する場合、直接的に識別する手法に限定されず、例えば、実データと合成データ(生成データ)の特徴量の分布の差を測るAIや既存の手法(Kullback-Leibler divergence、JS-divergenceなど)などの間接的に識別する手法を採用してもよい。 Further, when the second learning model 22 discriminates between the real data and the synthetic data (generated data), it is not limited to the direct discrimination method. Indirect identification methods such as AI for measuring differences and existing methods (Kullback-Leibler divergence, JS-divergence, etc.) may be employed.
また、差分算出処理部16における合成データと生成データの差分算出を、事前に実データ同士、合成データ同士の近さを測る学習をさせたAIに置き換えてもよい。
Further, the calculation of the difference between the synthesized data and the generated data in the difference
また、識別誤差と合成データ/生成データの差分に重みを付ける際に、重みの付け方自体を最適化するような仕組み(強化学習等)を全体のサイクル(図7のステップS1~S8の繰り返し)に組み込んでもよい。 In addition, when weighting the difference between the identification error and the synthetic data/generated data, a mechanism (reinforcement learning, etc.) that optimizes the weighting method itself is implemented in the entire cycle (repeating steps S1 to S8 in FIG. 7). may be incorporated into
1…処理部、2…記憶部、11…第1学習処理部、12…第2学習処理部、13…第3学習処理部、14…推定処理部、15…設定部、16…差分算出処理部、17…制御部、21…第1学習モデル、22…第2学習モデル、23…第3学習モデル、100…機械学習装置、101…プロセッサ、102…ROM、103…RAM、104…入力部、105…表示部、106…通信I/F、107…HDD
Reference Signs List 1 processing unit 2 storage unit 11 first
Claims (5)
前記第1学習モデルに、前記実データ、前記合成データ、前記生成データを入力して、出力された前記特徴量に基づいて前記第2学習モデルを機械学習する第2の処理を行う第2学習処理部と、
前記第2学習モデルに、前記第1学習モデルから出力された前記特徴量を入力して、出力された前記識別誤差に基づいて前記第3学習モデルを機械学習する第3の処理を行う第3学習処理部と、
前記第3学習モデルに、前記第2学習モデルから出力された前記識別誤差を入力して、出力された前記生成データに基づいて前記第1学習モデルを機械学習する第1の処理を行う第1学習処理部と、
を備える機械学習装置。 A first learning model for inputting data and outputting a feature amount of the data, and data input to the first learning model for inputting the feature amount output from the first learning model are real data. a second learning model that outputs a discrimination error as to whether or not the discrimination error output from the second learning model is input to output generated data in which the features of the real data are added to the synthetic data a storage unit that stores a third learning model;
Second learning for performing a second process of inputting the actual data, the synthetic data, and the generated data into the first learning model and machine-learning the second learning model based on the output feature amount. a processing unit;
performing a third process of inputting the feature amount output from the first learning model into the second learning model and performing machine learning of the third learning model based on the output identification error; a learning processing unit;
A first process of inputting the identification error output from the second learning model into the third learning model and performing machine learning of the first learning model based on the output generated data. a learning processing unit;
A machine learning device with
前記第3学習処理部は、さらに前記差分を用いて前記第3の処理を行う、請求項1または請求項2に記載の機械学習装置。 further comprising a difference calculation processing unit that calculates a difference between the synthesized data and the generated data,
3. The machine learning device according to claim 1, wherein said third learning processing unit further uses said difference to perform said third processing.
前記第1学習モデルに、前記実データ、前記合成データ、前記生成データを入力して、出力された前記特徴量に基づいて前記第2学習モデルを機械学習する第2の処理を行う第2学習処理ステップと、
前記第2学習モデルに、前記第1学習モデルから出力された前記特徴量を入力して、出力された前記識別誤差に基づいて前記第3学習モデルを機械学習する第3の処理を行う第3学習処理ステップと、
前記第3学習モデルに、前記第2学習モデルから出力された前記識別誤差を入力して、出力された前記生成データに基づいて前記第1学習モデルを機械学習する第1の処理を行う第1学習処理ステップと、
を含む機械学習方法。 A first learning model for inputting data and outputting a feature amount of the data, and data input to the first learning model for inputting the feature amount output from the first learning model are actual data. a second learning model that outputs a discrimination error as to whether or not the discrimination error output from the second learning model is input to output generated data in which the features of the real data are added to the synthetic data A machine learning method using a third learning model,
Second learning for performing a second process of inputting the actual data, the synthetic data, and the generated data into the first learning model and machine-learning the second learning model based on the output feature amount. a processing step;
performing a third process of inputting the feature amount output from the first learning model into the second learning model and performing machine learning of the third learning model based on the output identification error; a learning processing step;
A first process of inputting the identification error output from the second learning model into the third learning model and performing machine learning of the first learning model based on the output generated data. a learning processing step;
Machine learning methods, including
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021102015A JP2023000929A (en) | 2021-06-18 | 2021-06-18 | Machine learning device and machine learning method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021102015A JP2023000929A (en) | 2021-06-18 | 2021-06-18 | Machine learning device and machine learning method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2023000929A true JP2023000929A (en) | 2023-01-04 |
Family
ID=84687355
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021102015A Pending JP2023000929A (en) | 2021-06-18 | 2021-06-18 | Machine learning device and machine learning method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2023000929A (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6275362B1 (en) * | 2016-04-01 | 2018-02-07 | 株式会社wise | 3D graphic generation, artificial intelligence verification / learning system, program and method |
| WO2020233779A1 (en) * | 2019-05-17 | 2020-11-26 | Barco N.V. | Method and system for training generative adversarial networks with heterogeneous data |
| JP2021056677A (en) * | 2019-09-27 | 2021-04-08 | オムロン株式会社 | Data generation system, learning device, data generation device, data generation method and data generation program |
| JP2021086497A (en) * | 2019-11-29 | 2021-06-03 | 日本放送協会 | Network learning device for image conversion and program thereof, and image conversion device and program thereof |
-
2021
- 2021-06-18 JP JP2021102015A patent/JP2023000929A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6275362B1 (en) * | 2016-04-01 | 2018-02-07 | 株式会社wise | 3D graphic generation, artificial intelligence verification / learning system, program and method |
| WO2020233779A1 (en) * | 2019-05-17 | 2020-11-26 | Barco N.V. | Method and system for training generative adversarial networks with heterogeneous data |
| JP2021056677A (en) * | 2019-09-27 | 2021-04-08 | オムロン株式会社 | Data generation system, learning device, data generation device, data generation method and data generation program |
| JP2021086497A (en) * | 2019-11-29 | 2021-06-03 | 日本放送協会 | Network learning device for image conversion and program thereof, and image conversion device and program thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11610097B2 (en) | Apparatus and method for generating sampling model for uncertainty prediction, and apparatus for predicting uncertainty | |
| KR102457974B1 (en) | Method and apparatus for searching new material | |
| CN109190379B (en) | Vulnerability detection method and device for a deep learning system | |
| CN111489365A (en) | Neural network training method, image processing method and device | |
| US20220309331A1 (en) | Error compensation in analog neural networks | |
| JP2018205994A (en) | Time series data analysis device, time series data analysis method, and computer program | |
| US11670403B2 (en) | Method and apparatus for generating chemical structure using neural network | |
| US12423602B2 (en) | Data-creation assistance apparatus and data-creation assistance method | |
| US20210312323A1 (en) | Generating performance predictions with uncertainty intervals | |
| JP7283485B2 (en) | Estimation device, estimation method, and program | |
| JP2023044336A (en) | Learning apparatus, learning method, and program | |
| KR102045415B1 (en) | Method FOR DETERMINING AN OPTIMAL StatisticAL MODEL AUTOMATICALLY and Apparatus tHEREOF | |
| WO2018143019A1 (en) | Information processing device, information processing method, and program recording medium | |
| US20200160119A1 (en) | Sequential learning maintaining a learned concept | |
| JP7179672B2 (en) | Computer system and machine learning method | |
| JP2023000929A (en) | Machine learning device and machine learning method | |
| KR102261055B1 (en) | Method and system for optimizing design parameter of image to maximize click through rate | |
| CN120047332A (en) | Diffusion model image generation method and device for structure disturbance guidance and consistency distillation fusion | |
| JP7212292B2 (en) | LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM | |
| WO2023188160A1 (en) | Input assistance device, input assistance method, and non-transitory computer-readable medium | |
| JP7506763B2 (en) | Method and device for comparing a simulation of a real object with measured data of the real object, and method and device for generating a finite element representation of measured data of a real object - Patents.com | |
| JP2021089655A (en) | Learning model construction device, method for constructing learning model, and computer program | |
| WO2024180648A1 (en) | Information processing device, information processing method, and program | |
| JP7700542B2 (en) | Information processing device, information processing method, and program | |
| US20230086261A1 (en) | Clustering device, clustering method, and clustering program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240403 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241203 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250422 |