JP2018063504A - 生成モデル学習方法、装置及びプログラム - Google Patents
生成モデル学習方法、装置及びプログラム Download PDFInfo
- Publication number
- JP2018063504A JP2018063504A JP2016200527A JP2016200527A JP2018063504A JP 2018063504 A JP2018063504 A JP 2018063504A JP 2016200527 A JP2016200527 A JP 2016200527A JP 2016200527 A JP2016200527 A JP 2016200527A JP 2018063504 A JP2018063504 A JP 2018063504A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- generation model
- data
- generation
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】 生成モデルによる、ユーザにとって好ましくないデータの生成を抑制する。
【解決手段】 一実施形態に係る生成モデル学習方法は、予め用意された学習データに基づいて、第1生成モデルを教師なし学習により学習する第1学習工程と、前記第1生成モデルによる生成データを生成する生成工程と、前記学習データと、ユーザにより好ましくないと判定された前記生成データと、に基づいて、第2生成モデルを教師あり学習により学習する第2学習工程と、を含む。
【選択図】 図1
【解決手段】 一実施形態に係る生成モデル学習方法は、予め用意された学習データに基づいて、第1生成モデルを教師なし学習により学習する第1学習工程と、前記第1生成モデルによる生成データを生成する生成工程と、前記学習データと、ユーザにより好ましくないと判定された前記生成データと、に基づいて、第2生成モデルを教師あり学習により学習する第2学習工程と、を含む。
【選択図】 図1
Description
本発明は、生成モデル学習方法、装置及びプログラムに関する。
従来、人工知能の分野では、生成モデルが利用されている。生成モデルは、データセットのモデルを学習することにより、当該データセットに含まれる学習データと類似するデータを生成することができる。
近年、変分自己符号化器(VAE:Variational Auto Encoder)や敵対的ネットワーク(GAN:Generative Adversarial Networks)などの、ディープラーニングを利用した生成モデルが提案されている。これらの生成モデルは、深層生成モデルと呼ばれ、従来の生成モデルに比べて、高い精度で学習データに類似するデータを生成することができる。
しかしながら、従来の深層生成モデルは、生成されるデータの制御が困難であったため、ユーザにとって好ましくないデータが生成されることがあった。ユーザにとって好ましくないデータとして、例えば、画像データを生成する深層生成モデルにより生成される、立体形状を無視した画像データや、テクスチャが不均一な画像データなどが挙げられる。
本発明は、上記の課題に鑑みてなされたものであり、生成モデルによる、ユーザにとって好ましくないデータの生成を抑制することを目的とする。
一実施形態に係る生成モデル学習方法は、予め用意された学習データに基づいて、第1生成モデルを教師なし学習により学習する第1学習工程と、前記第1生成モデルによる生成データを生成する生成工程と、前記学習データと、ユーザにより好ましくないと判定された前記生成データと、に基づいて、第2生成モデルを教師あり学習により学習する第2学習工程と、を含む。
本発明の各実施形態によれば、生成モデルによる、ユーザにとって好ましくないデータの生成を抑制することができる。
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重畳した説明を省略する。
(第1実施形態)
第1実施形態に係る生成モデル学習装置1(以下、「学習装置1」という)について、図1〜図8を参照して説明する。まず、学習装置1の機能構成について説明する。図1は、学習装置1の機能構成の一例を示す図である。図1の学習装置1は、データセット記憶部11と、第1学習部12と、データ生成部13と、データ表示部14と、判定結果受付部15と、データセット更新部16と、第2学習部17と、を備える。
第1実施形態に係る生成モデル学習装置1(以下、「学習装置1」という)について、図1〜図8を参照して説明する。まず、学習装置1の機能構成について説明する。図1は、学習装置1の機能構成の一例を示す図である。図1の学習装置1は、データセット記憶部11と、第1学習部12と、データ生成部13と、データ表示部14と、判定結果受付部15と、データセット更新部16と、第2学習部17と、を備える。
データセット記憶部11は、ユーザにより予め用意されたデータセットを記憶する。データセットは、複数の学習データの組であり、後述する第1生成モデル及び第2生成モデルの学習に利用される。学習データは、画像データ、テキストデータ又は映像データであり得る。以下では、学習データは、画像データであるものとする。なお、各学習データには、当該データが学習データであることを示すラベルが付される。以下、学習データに付されるラベルを、オリジナルクラスという。
第1学習部12は、データセットに含まれる一部又は全部の学習データに基づいて、教師なし学習により、第1生成モデルを学習する。第1生成モデルを学習するとは、第1生成モデルを構成する各パラメータの値を学習することをいう。第1生成モデルは、生成器(generator)と、識別器(discriminator)と、により構成されるGANである。生成器は、学習データに類似するデータを生成する。生成器が生成するデータを、生成データという。識別器は、生成データと、学習データと、を識別する。生成器及び識別器は、多層ニューラルネットワークにより構成される。GAN及び第1生成モデルについて、詳しくは後述する。
なお、本明細書において、教師なし学習とは、教師データを含まない学習用データを用いて学習することをいう。また、教師あり学習とは、教師データを含む学習用データを用いて学習することをいう。
データ生成部13は、第1学習部12が学習した第1生成モデル及び後述する第2生成モデルに、入力変数(潜在変数)を入力することにより、複数の生成データを生成する。また、データ生成部13は、生成データに、当該データが生成データであることを示すラベルを付与する。以下、生成データに付されるラベルを、生成クラスという。
データ表示部14は、データ生成部13が生成した生成データを、後述する表示装置106に表示させる。
ユーザは、表示装置106に表示された画像データを確認することにより、各生成データが、好ましいか判定する。ユーザは、生成データが学習データに十分に類似していると判断した場合、当該生成データを好ましいと判定する。すなわち、好ましい生成データは、学習データに類似している程度が、ユーザの要求を満たしている生成データに相当する。一方、ユーザは、生成データが学習データに十分に類似していないと判断した場合、当該生成データを好ましくないと判定する。すなわち、好ましくない生成データは、学習データに類似している程度が、ユーザの要求を満たしていない生成データに相当する。
例えば、学習データが、手書き文字の画像データである場合について考える。この場合、第1生成モデルは、生成データとして、手書き文字の画像データに類似する画像データを生成する。第1生成モデルが生成した画像データが、手書き文字として可読である場合、ユーザは、当該画像データを好ましいと判定する。一方、第1生成モデルが生成した画像データが、手書き文字として可読でない場合、ユーザは、当該画像データを好ましくないと判定する。
判定結果受付部15は、第1生成モデル又は第2生成モデルが生成した各生成データに対する、ユーザによる判定結果を受け付ける。
データセット更新部16は、判定結果受付部15が受け付けた各生成データに対する判定結果に基づいて、データセットを更新する。具体的には、データセット更新部16は、ユーザにより好ましくないと判定された生成データを、データセットに追加する。この際、データセット更新部16は、データセットに追加する生成データに、当該データが好ましくないと判定された生成データであることを示すラベルを付与する。以下、好ましくないと判定された生成データに付されるラベルを、ブラックリストクラスという。また、ブラックリストクラスを付された生成データを、ブラックリストデータという。
第2学習部17は、データセットに含まれる一部又は全部の学習データと、ブラックリストデータ(教師データ)と、を含む学習用データに基づいて、教師あり学習により、第2生成モデルを学習する。第2生成モデルを学習するとは、第2生成モデルを構成する各パラメータの値を学習することをいう。第2生成モデルのパラメータとして、学習済みの第1生成モデルのパラメータが引き継がれる。第2生成モデルは、生成器と、識別器と、により構成されるGANである。生成器は、学習データに類似するデータを生成する。生成器が生成するデータを、生成データという。識別器は、生成データと、学習データと、を識別する。生成器及び識別器は、いずれも多層ニューラルネットワークにより構成される。GAN及び第2生成モデルについて、詳しくは後述する。
次に、学習装置1のハードウェア構成について説明する。学習装置1は、サーバコンピュータやクライアントコンピュータなどのコンピュータにより構成される。図2は、学習装置1のハードウェア構成の一例を示す図である。図2の学習装置1は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、HDD(Hard Disk Drive)104と、を備える。また、学習装置1は、入力装置105と、表示装置106と、通信インタフェース107と、バス108と、を備える。
CPU101は、プログラムを実行することにより、学習装置1の各構成を制御し、学習装置1の機能を実現する。ROM102は、CPU101が実行するプログラムを含む各種データを記憶する。RAM103は、CPU101に作業領域を提供する。HDD104は、CPU101が実行するプログラムやデータセットを含む各種データを記憶する。入力装置105は、ユーザによる操作に応じた情報を学習装置1に入力する。入力装置105は、マウス、キーボード、タッチパネル又はハードウェアキーであり得る。入力変数や判定結果は、入力装置105の操作により入力されてもよい。表示装置106は、生成データを含む各種データを表示する。表示装置106は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ又はブラウン管ディスプレイであり得る。通信インタフェース107は、学習装置1を、LAN(Local Area Network)やインターネットなどのネットワークに接続するためのインタフェースである。学習装置1は、通信インタフェース107を介して外部装置と通信する。入力変数や判定結果は、通信インタフェース107を介して外部装置から入力されてもよい。バス108は、CPU101、ROM102、RAM103、HDD104、入力装置105、表示装置106及び通信インタフェース107を接続する。なお、図2の例では、学習装置1は、単一のコンピュータにより構成されているが、ネットワークを介して接続された複数のコンピュータにより構成されたシステムであってもよい。
次に、GAN、第1生成モデル及び第2生成モデルについて詳細に説明する。上述の通り、GANは、深層生成モデルの一種であり、生成器及び識別器を備える。本実施形態では、第1生成モデル及び第2生成モデルを構成するGANとして、DCGAN(Deep Convolutional GAN)が利用される。DCGANは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用したGANであり、複数の層により構成される。
本実施形態において、第1生成モデルは、DCGANにより構成される。第1学習部12は、データセット記憶部11に記憶された学習データと、生成器により生成した生成データと、に基づいて第1生成モデルを学習する。
図3は、本実施形態における第1生成モデル(DCGAN)の構成を模式的に示した図である。図3において、xは識別器に入力される入力変数(学習データ及び生成データ)、yは識別器が出力する出力変数(オリジナルクラス及び生成クラス)、zは生成器に入力される入力変数(潜在変数)である。また、Dは識別器を構成するパラメータ群、Gは生成器を構成するパラメータ群である。パラメータ群D,Gには、それぞれ複数のパラメータが含まれる。
第1生成モデルの識別器は、入力変数xが学習データであるか生成データであるかを識別可能なように学習される。具体的には、入力変数xが学習データである場合に出力変数yがオリジナルクラスとなり、入力変数xが生成データである場合に出力変数yが生成クラスとなるように、パラメータ群Dが学習される。
これに対して、第1生成モデルの生成器は、識別器が学習データと識別できない生成データを生成可能なように学習される。具体的には、識別器に入力変数xとして生成データを入力した場合に出力変数yがオリジナルクラスとなるように、パラメータ群Gが学習される。
第1学習部12は、第1生成モデルの上記のような学習を繰り返す。これにより、識別器の識別精度が向上し、生成器による生成精度(生成データが学習データに類似する程度)が向上する。第1生成モデルの上記の学習は、以下の評価関数を解くことにより実現される。
式(1)において、Vは評価値、E[・]は期待値、x~pdataはデータセットからサンプリングされた学習データの集合(入力変数x)に相当する。また、z~pzは入力変数z、D(x)は入力変数xを入力された場合の出力変数y、G(z)は入力変数zを入力された場合の生成データに相当する。
式(1)の右辺第1項は、識別器の評価値に相当し、識別器の識別精度が高いほど、高い値となる。式(1)の右辺第2項は、生成器の評価値に相当し、学習データに対する生成データの類似の程度が高いほど(識別器の識別間違いが多いほど)、高い値となる。
以上のことからわかるように、識別器の学習が進むほど、式(1)の右辺第1項が高くなり、右辺第2項が低くなる。また、生成器の学習が進むほど、式(1)の右辺第1項が低くなり、右辺第2項が高く低くなる。
図4は、第1学習部12による第1生成モデルの学習処理を示すフローチャートである。まず、第1学習部12は、データセットに含まれる一部又は全部の学習データを選択する(ステップS101)。次に、第1学習部12は、入力変数zに基づいて、生成器により生成データを生成する(ステップS102)。生成データは、入力変数xとして識別器に入力される。続いて、第1学習部12は、ステップS101で選択された学習データと、ステップS102で生成された生成データと、を識別器により識別する(ステップS103)。そして、第1学習部12は、識別結果に基づいて、評価値Vを算出する(ステップS104)。その後、第1学習部12は、評価値Vに基づいて、パラメータ群D,Gを更新する(ステップS105)。以降、第1学習部12は、終了条件が満たされるまで、ステップS101〜S106の処理を繰り返す。終了条件は、学習処理の回数により設定されてもよいし、評価値Vや識別器及び生成器の評価値Eにより設定されてもよい。終了条件が満たされると(ステップS106のYES)、学習処理は終了する。
以上のように、第1学習部12は、学習データ及び生成データに基づいて、第1生成モデルを学習する。これに対して、第2学習部17は、学習データ、生成データ及びブラックリストデータ(好ましくないと判定された生成データ)に基づいて第2生成モデルを学習する。本実施形態において第2生成モデルを構成するDCGANを、BDCGAN(Blacklist DCGAN)という。
図5は、本実施形態における第2生成モデル(BDCGAN)の構成を模式的に示した図である。図5において、xは識別器に入力される入力変数(学習データ、生成データ及びブラックリストデータ)、yは識別器が出力する出力変数(オリジナルクラス、生成クラス及びブラックリストクラス)である。また、zは生成器に入力される入力変数(潜在変数)、Dは識別器を構成するパラメータ群、Gは生成器を構成するパラメータ群である。パラメータ群D,Gには、それぞれ複数のパラメータが含まれる。
第2生成モデルの識別器は、入力変数xが学習データ、生成データ及びブラックリストデータのいずれであるかを識別可能なように、教師あり学習される。具体的には、入力変数xが学習データである場合に出力変数yがオリジナルクラスとなり、入力変数xが生成データである場合に出力変数yが生成クラスとなるように、パラメータ群Dが学習される。また、入力変数xがブラックリストデータである場合に出力変数yがブラックリストクラスとなるように、パラメータ群Dが学習される。
これに対して、第2生成モデルの生成器は、識別器が学習データと識別できない生成データを生成可能なように、かつ、ブラックリストデータに類似する生成データが生成されないように、教師あり学習される。具体的には、識別器に入力変数xとして生成データを入力した場合の出力変数yが、オリジナルクラスとなり、かつ、ブラックリストクラスとならないように、パラメータ群Gが学習される。
第2学習部17は、第2生成モデルの上記のような学習を繰り返す。これにより、識別器の識別精度が向上し、生成器による生成精度(生成データが学習データに類似する程度)が向上する。また、ブラックリストデータの生成を抑制できる。第2生成モデルの上記の学習は、以下の評価関数を解くことにより実現される。
式(2)において、x~pblacklistはブラックリストデータ全体からサンプリングされたブラックリストデータの集合(入力変数x)、Lはデータに付されたラベル(正解データ)に相当するベクトルである。本実施形態の場合,ラベルは3種類なので、Lは3次元のベクトルであり、たとえば、L_dataは[1 0 0]、L_genは[0 1 0]、L_blacklistは[0 0 1]と表現できる。式(2)は、式(1)とは、2つの点で異なっている。
1点目は、識別器がデータをオリジナルクラス、生成クラス及びブラックリストクラスの3種類に識別している点である。2点目は、識別器が生成データのラベルをブラックリストクラスだと判定した場合、識別器の損失となり、評価値Vが低下する点である。式(2)の評価関数により、識別器によりラベルが生成クラス又はブラックリストクラスと判定されない生成データを生成するように、生成器のパラメータが学習される。
図6は、第2学習部17による第2生成モデルの学習処理を示すフローチャートである。以下では、データセットにブラックリストデータが追加済みであるものとする。
まず、第2学習部17は、データセットに含まれる一部又は全部の学習データを選択する(ステップS201)。また、第2学習部17は、データセットに含まれる一部又は全部のブラックリストデータを選択する(ステップS202)。次に、第2学習部17は、入力変数zに基づいて、生成器により生成データを生成する(ステップS203)。生成データは、入力変数xとして識別器に入力される。
続いて、第2学習部17は、ステップS201で選択された学習データと、ステップS202で選択されたブラックリストデータと、ステップS203で生成された生成データと、を識別器により識別する(ステップS204)。そして、第2学習部17は、識別結果に基づいて、評価値Vを算出する(ステップS205)。その後、第2学習部17は、評価値Vに基づいて、パラメータ群D,Gを更新する(ステップS206)。
以降、第2学習部17は、終了条件が満たされるまで、ステップS201〜S207の処理を繰り返す。終了条件は、学習処理の回数により設定されてもよいし、評価値Vや識別器及び生成器の評価値Eにより設定されてもよい。また、終了条件は、生成データに含まれるブラックリストデータの割合により設定されてもよい。終了条件が満たされると(ステップS207のYES)、学習処理は終了する。
以上のように、第2学習部17は、データセット記憶部11に記憶された学習データと、生成器により生成した生成データと、データセット更新部16によりデータセットに追加されたブラックリストデータと、に基づいて第2生成モデルを学習する。
次に、本実施形態に係る学習装置1の動作について説明する。図7は、本実施形態に係る学習装置1が実行する学習処理の一例を示すフローチャートである。以下では、データセット記憶部11に、データセットが記憶済みであるものとする。
まず、第1学習部12は、データセット記憶部11に記憶されたデータセットに含まれる学習データから、一部又は全部の学習データを選択し、選択した学習データを読み出す。第1学習部12は、読み出した学習データに基づいて、第1生成モデルを教師なし学習する(ステップS301)。第1生成モデルの学習方法は上述の通りである。
第1生成モデルの学習が終了すると、データ生成部13は、入力変数zに基づいて、第1生成モデルの生成器により、複数の生成データを生成する(ステップS302)。
データ生成部13が生成データを生成すると、データ表示部14は、生成された複数の生成データを表示装置106に表示させる(ステップS303)。
生成データが表示されると、ユーザは、各生成データが好ましいか判定し、各生成データの判定結果を学習装置1に入力する。判定結果受付部15は、第1生成モデルが生成した各生成データに対する、ユーザによる判定結果を受け付ける(ステップS304)。
判定結果受付部15が判定結果を受け付けると、データセット更新部16は、判定結果に基づいて、データセット記憶部11に記憶されたデータセットを更新する(ステップS305)。すなわち、データセット更新部16は、好ましくないと判定された生成データにブラックリストクラスのラベルを付与し、当該生成データをブラックリストデータとして、データセット記憶部11に記憶されたデータセットに追加する。
データセットにブラックリストデータが追加されると、第2学習部17は、データセット記憶部11に記憶されたデータセットに含まれる学習データから、一部又は全部の学習データを選択し、選択した学習データを読み出す。また、第2学習部17は、データセット記憶部11に記憶されたデータセットに含まれるブラックリストデータから、一部又は全部のブラックリストデータを選択し、選択したブラックリストデータを読み出す。第2学習部17は、読み出した学習データ及びブラックリストデータを含む学習用データに基づいて、第2生成モデルを教師あり学習する(ステップS306)。第2生成モデルの学習方法は上述の通りである。
第2生成モデルの学習後、終了条件が満たされている場合(ステップS307のYES)、学習処理は終了する。一方、終了条件が満たされていない場合(ステップS307のNO)、データ生成部13は、入力変数zに基づいて、学習された第2生成モデルの生成器により、複数の生成データを生成する(ステップS308)。その後、処理は、ステップS303に戻り、データ表示部14が、生成された複数の生成データを表示装置106に表示させる(ステップS303)。以降、学習装置1は、終了条件が満たされるまで、ステップS303〜S308の処理を繰り返す。
なお、終了条件が、第2生成モデルの生成器により生成される生成データに含まれるブラックリストデータの割合により設定されている場合、ユーザは、ステップS303において表示された生成データを確認し、終了条件が満たされているか判定してもよい。この場合、ユーザは、終了条件が満たされていると判定した場合(ブラックリストデータの割合が所定の閾値以下になったと判定した場合)、学習装置1に学習処理を終了させればよい。
ここで、第2生成モデルの学習方法についてより詳細に説明する。
一般に、多層ニューラルネットワークは、性能が不十分である場合、再学習(2回目以降の学習)を実行される。多層ニューラルネットワークの再学習方法として、以下の3つの方法が利用されている。
<第1の再学習方法>
第1の再学習方法は、学習済みの多層ニューラルネットワークのパラメータを初期化し、新たな学習データに基づいて、パラメータを初期状態から再学習する方法である。第1の再学習方法によれば、多層ニューラルネットワークは、直前の多層ニューラルネットワークに依存せずに再学習される。このため、第1の再学習方法は、再学習の前後で、多層ニューラルネットワークの構造(層数やユニット数)が異なる場合にも利用できる。直前の学習の際に、多層ニューラルネットワークが不適切な学習データに基づいて学習された結果として性能が不十分となった場合、第1の再学習方法により、多層ニューラルネットワークを効果的に再学習することができる。
第1の再学習方法は、学習済みの多層ニューラルネットワークのパラメータを初期化し、新たな学習データに基づいて、パラメータを初期状態から再学習する方法である。第1の再学習方法によれば、多層ニューラルネットワークは、直前の多層ニューラルネットワークに依存せずに再学習される。このため、第1の再学習方法は、再学習の前後で、多層ニューラルネットワークの構造(層数やユニット数)が異なる場合にも利用できる。直前の学習の際に、多層ニューラルネットワークが不適切な学習データに基づいて学習された結果として性能が不十分となった場合、第1の再学習方法により、多層ニューラルネットワークを効果的に再学習することができる。
<第2の再学習方法>
第2の再学習方法は、学習済みの多層ニューラルネットワークのパラメータを初期値として利用する方法である。第2の再学習方法では、性能がいい他の多層ニューラルネットワークのパラメータを初期値として利用できる。このため、収束が早く、再学習を短時間で実行できる。また、初期状態からの学習が困難な、サンプル数(学習データ数)が少ないデータセットに基づいて、多層ニューラルネットワークを再学習できる。ただし、第2の再学習方法では、再学習の前後で、初期値として利用されるパラメータを含む多層ニューラルネットワークの部分は、構造が同一であることが要求される。
第2の再学習方法は、学習済みの多層ニューラルネットワークのパラメータを初期値として利用する方法である。第2の再学習方法では、性能がいい他の多層ニューラルネットワークのパラメータを初期値として利用できる。このため、収束が早く、再学習を短時間で実行できる。また、初期状態からの学習が困難な、サンプル数(学習データ数)が少ないデータセットに基づいて、多層ニューラルネットワークを再学習できる。ただし、第2の再学習方法では、再学習の前後で、初期値として利用されるパラメータを含む多層ニューラルネットワークの部分は、構造が同一であることが要求される。
<第3の再学習方法>
第3の再学習方法は、学習済みの多層ニューラルネットワークのパラメータの一部を固定し、固定されていないパラメータのみを、第1の再学習方法又は第2の再学習方法により再学習する方法である。第3の再学習方法は、再学習するパラメータを削減できるため、再学習を短時間で実行できる。第3の再学習方法では、第2の再学習方法と同様に、再学習の前後で、固定されるパラメータを含む多層ニューラルネットワークの部分は、構造が同一であることが要求される。
第3の再学習方法は、学習済みの多層ニューラルネットワークのパラメータの一部を固定し、固定されていないパラメータのみを、第1の再学習方法又は第2の再学習方法により再学習する方法である。第3の再学習方法は、再学習するパラメータを削減できるため、再学習を短時間で実行できる。第3の再学習方法では、第2の再学習方法と同様に、再学習の前後で、固定されるパラメータを含む多層ニューラルネットワークの部分は、構造が同一であることが要求される。
本実施形態では、第1学習部12及び第2学習部17により、それぞれ第1生成モデル及び第2生成モデルが学習される。第1生成モデルの学習を、多層ニューラルネットワークの1回目の学習と考えると、第2生成モデルの学習は、多層ニューラルネットワークの2回目以降の再学習に相当する。このため、第2生成モデルの学習は、上記の第1乃至第3の再学習方法を利用して行われる。以下、第2生成モデルの識別器の学習方法の6つの具体例について説明する。
<第1の学習方法>
第1の学習方法は、第2生成モデルの識別器の全てのパラメータを初期化し、全てのパラメータを初期状態から学習する方法である。第1の学習方法は、第2生成モデルの識別器の全てのパラメータを、第1の再学習方法により学習する方法に相当する。このため、第1の学習方法を利用する場合、第1生成モデルの識別器と、第2生成モデルの識別器と、の構造は同一であってもよいし、異なってもよい。
第1の学習方法は、第2生成モデルの識別器の全てのパラメータを初期化し、全てのパラメータを初期状態から学習する方法である。第1の学習方法は、第2生成モデルの識別器の全てのパラメータを、第1の再学習方法により学習する方法に相当する。このため、第1の学習方法を利用する場合、第1生成モデルの識別器と、第2生成モデルの識別器と、の構造は同一であってもよいし、異なってもよい。
<第2の学習方法>
第2の学習方法では、第2生成モデルの識別器が、第1生成モデルの識別器と同一構造を有する共通部分を備えることが前提となる。共通部分は、入力層だけでもよいし、入力層から中間層のいずれか1つまでであってもよい。第2生成モデルの識別器の共通部分以外の部分を、非共通部分という。
第2の学習方法では、第2生成モデルの識別器が、第1生成モデルの識別器と同一構造を有する共通部分を備えることが前提となる。共通部分は、入力層だけでもよいし、入力層から中間層のいずれか1つまでであってもよい。第2生成モデルの識別器の共通部分以外の部分を、非共通部分という。
第2の学習方法は、第2生成モデルの識別器の共通部分の少なくとも一部のパラメータを、第1生成モデルの識別器の共通部分のパラメータを初期値として学習し、第2生成モデルの識別器の他の部分のパラメータを初期状態から学習する方法である。第2の学習方法は、第2生成モデルの識別器の共通部分の少なくとも一部のパラメータを、第2の再学習方法により学習し、他の部分のパラメータを、第1の再学習方法により学習する方法に相当する。
図8は、第1生成モデル及び第2生成モデルの識別器の構造の一例を示す図である。図8(A)は、第1生成モデルの識別器の構造を示し、図8(B)は、第2生成モデルの識別器の構造を示す。
図8(A)の識別器は、入力層LI1と、第1中間層LM11と、第2中間層LM12と、出力層LO1と、を備える。入力層LI1は、5つのユニットを備え、第1中間層LM11は4つのユニットを備え、第2中間層LM12は3つのユニットを備え、出力層LO1は2つのユニットを備える。出力層LO1の2つのユニットは、それぞれ識別結果(オリジナルクラス又は生成クラス)を出力する。
図8(B)の識別器は、入力層LI2と、第1中間層LM21と、第2中間層LM22と、出力層LO2と、を備える。入力層LI2は、5つのユニットを備え、第1中間層LM21は4つのユニットを備え、第2中間層LM22は4つのユニットを備え、出力層LO2は3つのユニットを備える。出力層LO2の3つのユニットは、それぞれ識別結果(オリジナルクラス、生成クラス及びブラックリストクラス)を出力する。
図8(A)の識別器と、図8(B)の識別器と、は入力層から第1中間層までの構造が同一であり、第2中間層から出力層までの構造が異なる。すなわち、入力層から第1中間層までが共通部分であり、第2中間層から出力層までが非共通部分である。
図8(B)の識別器を第2の学習方法により学習する場合、例えば、入力層LI2及び第1中間層LM21のパラメータは、図8(A)の識別器の入力層LI1及び第1中間層LM11のパラメータを初期値として学習される。この場合、第2中間層LM22及び出力層LO2のパラメータは、初期状態から学習される。
また、入力層LI2のパラメータが、図8(A)の識別器の入力層LI1のパラメータを初期値として学習され、第1中間層LM21、第2中間層LM22及び出力層LO2のパラメータが、初期状態から学習されてもよい。
<第3の学習方法>
第2の学習方法では、第2の学習方法と同様に、第2生成モデルの識別器が、第1生成モデルの識別器と同一構造を有する共通部分を備えることが前提となる。
第2の学習方法では、第2の学習方法と同様に、第2生成モデルの識別器が、第1生成モデルの識別器と同一構造を有する共通部分を備えることが前提となる。
第3の学習方法は、第2生成モデルの識別器の共通部分の少なくとも一部のパラメータを、第1生成モデルの識別器の共通部分のパラメータに固定し、第2生成モデルの識別器の他の部分のパラメータを初期状態から学習する方法である。第3の学習方法は、第2生成モデルの識別器のパラメータを、第3の再学習方法により学習する方法に相当する。第3の学習方法では、第2生成モデルの識別器の他の部分のパラメータは、第2の再学習方法により学習される。
図8(B)の識別器を第3の学習方法により学習する場合、例えば、入力層LI2及び第1中間層LM21のパラメータは、図8(A)の識別器の入力層LI1及び第1中間層LM11のパラメータに固定される。この場合、第2中間層LM22及び出力層LO2のパラメータは、初期状態から学習される。
また、入力層LI2のパラメータが、図8(A)の識別器の入力層LI1のパラメータに固定され、第1中間層LM21、第2中間層LM22及び出力層LO2のパラメータが、初期状態から学習されてもよい。
<第4の学習方法>
第4の学習方法では、第1生成モデルの識別器と、第2生成モデルの識別器と、が同一構造を有することが前提となる。すなわち、第1生成モデルの識別器が、ブラックリストクラスを識別するためのユニットを備えることが前提となる。第1生成モデルの識別器が、ブラックリストクラスを識別するためのユニットを備える場合であっても、第1生成モデルの学習では、ブラックリストデータが利用されないため、ブラックリストクラスに関する学習は行われない。ブラックリストクラスに関する学習は、第2生成モデルの学習の際に行われる。
第4の学習方法では、第1生成モデルの識別器と、第2生成モデルの識別器と、が同一構造を有することが前提となる。すなわち、第1生成モデルの識別器が、ブラックリストクラスを識別するためのユニットを備えることが前提となる。第1生成モデルの識別器が、ブラックリストクラスを識別するためのユニットを備える場合であっても、第1生成モデルの学習では、ブラックリストデータが利用されないため、ブラックリストクラスに関する学習は行われない。ブラックリストクラスに関する学習は、第2生成モデルの学習の際に行われる。
第4の学習方法は、第2生成モデルの識別器の全てのパラメータを、第1生成モデルの識別器のパラメータを初期値として学習する方法である。第4の学習方法は、第2生成モデルの識別器の全てのパラメータを、第2の再学習方法により学習する方法に相当する。
<第5の学習方法>
第5の学習方法では、第4の学習方法と同様に、第1生成モデルの識別器と、第2生成モデルの識別器と、が同一構造を有することが前提となる。
第5の学習方法では、第4の学習方法と同様に、第1生成モデルの識別器と、第2生成モデルの識別器と、が同一構造を有することが前提となる。
第5の学習方法は、第2生成モデルの識別器の第1部分のパラメータを、第1生成モデルの識別器の第1部分のパラメータに固定し、第2生成モデルの識別器の第2部分のパラメータを、初期状態から学習する方法である。第1部分は、任意に設定可能であり、例えば、入力層から中間層のいずれか1つまでである。第2部分は、第1部分以外の部分である。第5の学習方法は、第2生成モデルの識別器のパラメータを、第3の再学習方法により学習する方法に相当する。第5の学習方法では、第2生成モデルの識別器の第2部分のパラメータは、第1の再学習方法により学習される。
<第6の学習方法>
第6の学習方法では、第4の学習方法と同様に、第1生成モデルの識別器と、第2生成モデルの識別器と、が同一構造を有することが前提となる。
第6の学習方法では、第4の学習方法と同様に、第1生成モデルの識別器と、第2生成モデルの識別器と、が同一構造を有することが前提となる。
第6の学習方法は、第2生成モデルの識別器の第1部分のパラメータを、第1生成モデルの識別器の第1部分のパラメータに固定する方法である。第2生成モデルの識別器の第2部分のパラメータは、第1生成モデルの識別器の第2部分のパラメータを初期値として学習される。第6の学習方法は、第2生成モデルの識別器のパラメータを、第3の再学習方法により学習する方法に相当する。第6の学習方法では、第2生成モデルの識別器の第2部分のパラメータは、第2の再学習方法により学習される。
なお、本実施形態において、第2生成モデルの生成器は、第1生成モデルの生成器と同一構造を有する。したがって、第2生成モデルの生成器の学習方法として、上記第1乃至第6の学習方法のいずれも利用可能である。
以上説明した通り、本実施形態によれば、第2生成モデルの生成器は、識別器が学習データと識別できない生成データを生成可能なように教師あり学習される。これにより、第2生成モデルの識別器の識別精度を向上させることができる。
また、本実施形態によれば、第2生成モデルの生成器は、ブラックリストデータに類似する生成データが生成されないように教師あり学習される。これにより、第2生成モデルの生成器によるブラックリストデータ(ユーザにより好ましくないと判定される生成データ)の生成を抑制することができる。
なお、本実施形態に係る学習方法は、第1生成モデル及び第2生成モデルが深層生成モデルでない場合(すなわち、識別器及び生成器が多層ニューラルネットワークではない場合)であっても利用可能である。この場合、多層ニューラルネットワークによる特徴量設計が行われないため、第1生成モデル及び第2生成モデルの特徴量をユーザが予め設定すればよい。第1生成モデル及び第2生成モデルの特徴量として、周知の任意の特徴量を設定することができる。例えば、学習データが画像データである場合、第1生成モデル及び第2生成モデルの特徴量として、HoG特徴量、SHIFT特徴量、SURF特徴量などを利用できる。また、学習データが音声データである場合、第1生成モデル及び第2生成モデルの特徴量として、ホルマント遷移特徴量などを利用できる。
(第2実施形態)
第2実施形態に係る学習装置1について、図9〜図13を参照して説明する。本実施形態では、第2生成モデルがCGAN(Conditional GAN)により構成される場合について説明する。なお、本実施形態における他の構成は、第1実施形態と同様である。
第2実施形態に係る学習装置1について、図9〜図13を参照して説明する。本実施形態では、第2生成モデルがCGAN(Conditional GAN)により構成される場合について説明する。なお、本実施形態における他の構成は、第1実施形態と同様である。
図9は、本実施形態における第2生成モデル(CGAN)の構成を模式的に示した図である。図9において、xは識別器に入力される入力変数(学習データ及び生成データ)、yは識別器が出力する出力変数(オリジナルクラス及び生成クラス)である。また、zは生成器に入力される入力変数(潜在変数)、Dは識別器を構成するパラメータ群、Gは生成器を構成するパラメータ群である。パラメータ群D,Gには、それぞれ複数のパラメータが含まれる。
また、図9において、wは、メタ情報の確信度である。メタ情報は、ユーザにより生成データに付与される画像データの素性を示す情報である。一般に、生成データが人の顔の画像データである場合、生成データには、「笑顏らしい」、「女性らしい」、「髪が長い」などのメタ情報が付与される。確信度wは、これらのメタ情報に対する確からしさに相当する。
本実施形態では、メタ情報として、「ブラックリストクラスらしさ」の確信度wが付与される。「ブラックリストクラスらしさ」は、画像データがオリジナルデータに類似しない程度(ユーザにより好ましくないと判定される確からしさ)に相当する。好ましくないと判定される画像データに種類がある場合には、複数の「ブラックリストクラスらしさ」を用意すればよい。
第2生成モデルの識別器は、入力変数xが学習データ及び生成データのいずれであるかを識別可能なように、教師あり学習される。具体的には、入力変数xが学習データである場合に出力変数yがオリジナルクラスとなり、入力変数xが生成データである場合に出力変数yが生成クラスとなるように、パラメータ群Dが学習される。
これに対して、第2生成モデルの生成器は、識別器が学習データと識別できない生成データを生成可能なように、かつ、確信度wが小さい生成データを生成可能なように、教師あり学習される。具体的には、識別器に入力変数xとして生成データを入力した場合の出力変数yが、オリジナルクラスとなるように、パラメータ群Gが学習される。
第2学習部17は、第2生成モデルの上記のような学習を繰り返す。これにより、識別器の識別精度が向上し、生成器による生成精度(生成データが学習データに類似する程度)が向上する。また、生成器に小さい確信度wを入力することにより、確信度wが小さい生成データを生成することができる。すなわち、ブラックリストデータ(好ましくない生成データ)の生成を抑制できる。第2生成モデルの上記の学習は、以下の評価関数を解くことにより実現される。
図10は、第2学習部17による第2生成モデルの学習処理を示すフローチャートである。以下では、データセットには、確信度wが付与された生成データ(第1実施形態におけるブラックリストデータに相当)が追加済みであるものとする。
まず、第2学習部17は、データセットに含まれる一部又は全部の学習データを選択する(ステップS401)。また、第2学習部17は、データセットに含まれる一部又は全部の生成データを選択する(ステップS402)。次に、第2学習部17は、入力変数zに基づいて、確信度wが小さくなるように、生成器により生成データを生成する(ステップS403)。生成データは、入力変数xとして識別器に入力される。
続いて、第2学習部17は、ステップS401で選択された学習データと、ステップS402で選択された生成データと、ステップS403で生成された生成データと、を識別器により識別する(ステップS404)。そして、第2学習部17は、識別結果に基づいて、評価値Vを算出する(ステップS405)。その後、第2学習部17は、評価値Vに基づいて、パラメータ群D,Gを更新する(ステップS406)。
以降、第2学習部17は、終了条件が満たされるまで、ステップS401〜S407の処理を繰り返す。終了条件は、学習処理の回数により設定されてもよいし、評価値Vや識別器及び生成器の評価値Eにより設定されてもよい。また、終了条件は、生成データに含まれるブラックリストデータ(好ましくない生成データ)の割合により設定されてもよい。終了条件が満たされると(ステップS407のYES)、学習処理は終了する。
以上のように、第2学習部17は、データセット記憶部11に記憶された学習データと、生成器により生成した生成データと、生成データに付与されたブラックリストクラスらしさの確信度wと、に基づいて第2生成モデルを学習する。
次に、本実施形態に係る学習装置1の動作について説明する。図11は、本実施形態に係る学習装置1が実行する学習処理の一例を示すフローチャートである。以下では、データセット記憶部11に、データセットが記憶済みであるものとする。
まず、第1学習部12は、データセット記憶部11に記憶されたデータセットに含まれる学習データから、一部又は全部の学習データを選択し、選択した学習データを読み出す。第1学習部12は、読み出した学習データに基づいて、第1生成モデルを教師なし学習する(ステップS501)。第1生成モデルの学習方法は第1実施形態と同様である。
第1生成モデルの学習が終了すると、データ生成部13は、入力変数zに基づいて、第1生成モデルの生成器により、複数の生成データを生成する(ステップS502)。
データ生成部13が生成データを生成すると、データ表示部14は、生成された複数の生成データを表示装置106に表示させる(ステップS503)。
生成データが表示されると、ユーザは、各生成データにブラックリストクラスらしさの確信度wを付与する。ユーザは、好ましくない生成データほど大きな確信度wを付与し、好ましい生成データほど小さな確信度wを付与すればよい。ユーザは、確信度wを付与した生成データを学習装置1に入力する。判定結果受付部15は、確信度wが付与された各生成データを受け付ける(ステップS504)。
判定結果受付部15が生成データを受け付けると、データセット更新部16は、データセット記憶部11に記憶されたデータセットを更新する(ステップS505)。すなわち、データセット更新部16は、確信度wを付与された生成データを、データセット記憶部11に記憶されたデータセットに追加する。
データセットに確信度wを付与された生成データが追加されると、第2学習部17は、データセット記憶部11に記憶されたデータセットに含まれる学習データから、一部又は全部の学習データを選択し、選択した学習データを読み出す。また、第2学習部17は、データセット記憶部11に記憶されたデータセットに含まれる生成データから、一部又は全部の生成データを選択し、選択した生成データを読み出す。第2学習部17は、読み出した学習データ及び生成データ(教師データ)を含む学習用データに基づいて、第2生成モデルを教師あり学習する(ステップS506)。第2生成モデルの学習方法は上述の通りである。
第2生成モデルの学習後、終了条件が満たされている場合(ステップS507のYES)、学習処理は終了する。一方、終了条件が満たされていない場合(ステップS507のNO)、データ生成部13は、入力変数zに基づいて、学習された第2生成モデルの生成器により、複数の生成データを生成する(ステップS508)。その後、処理は、ステップS503に戻り、データ表示部14が、生成された複数の生成データを表示装置106に表示させる(ステップS503)。以降、学習装置1は、終了条件が満たされるまで、ステップS503〜S508の処理を繰り返す。
なお、終了条件が、第2生成モデルの生成器により生成される生成データに含まれるブラックリストデータの割合により設定されている場合、ユーザは、ステップS503において表示された生成データを確認し、終了条件が満たされているか判定してもよい。この場合、ユーザは、終了条件が満たされていると判定した場合(ブラックリストデータの割合が所定の閾値以下になったと判定した場合)、学習装置1に学習処理を終了させればよい。
ここで、第2生成モデルの学習方法についてより詳細に説明する。本実施形態では、第1学習部12及び第2学習部17により、それぞれ第1生成モデル及び第2生成モデルが学習される。第1生成モデルの学習を、多層ニューラルネットワークの1回目の学習と考えると、第2生成モデルの学習は、多層ニューラルネットワークの2回目以降の再学習に相当する。このため、第2生成モデルの学習は、上記の第1乃至第3の再学習方法を利用して行われる。
ここで、図12は、第1生成モデル及び第2生成モデルの識別器の構造の一例を示す図である。図12(A)は、第1生成モデルの識別器の構造を示し、図12(B)は、第2生成モデルの識別器の構造を示す。図12からわかるように、第1生成モデル及び第2生成モデルの識別器は、その構造が異なる。具体的には、第2生成モデルの識別器の入力層は、第1生成モデルの識別器の入力層に、確信度wを入力するユニットを追加したものである。このように、第1生成モデルと第2生成モデルの構造が異なる場合、第1実施形態で説明した第1の学習方法乃至第6の学習方法のいずれかを利用して、第2生成モデルの識別器を学習すればよい。
また、図13は、第1生成モデル及び第2生成モデルの生成器の構造の一例を示す図である。図13(A)は、第1生成モデルの生成器の構造を示し、図13(B)は、第2生成モデルの生成器の構造を示す。図13からわかるように、第1生成モデル及び第2生成モデルの生成器は、その構造が異なる。具体的には、第2生成モデルの生成器の入力層は、第1生成モデルの生成器の入力層に、確信度wを入力するユニットを追加したものである。このように、第1生成モデルと第2生成モデルの構造が異なる場合、第1実施形態で説明した第1の学習方法乃至第6の学習方法のいずれかを利用して、第2生成モデルの生成器を学習すればよい。
以上説明した通り、本実施形態によれば、第2生成モデルの生成器は、識別器が学習データと識別できない生成データを生成可能なように教師あり学習される。これにより、第2生成モデルの識別器の識別精度を向上させることができる。
また、本実施形態によれば、第2生成モデルの生成器は、ブラックリストらしさの確信度wが小さい生成データが生成されるように教師あり学習される。これにより、第2生成モデルの生成器によるブラックリストデータ(好ましくない生成データ)の生成を抑制することができる。
また、本実施形態によれば、第2生成モデルは、CGANであるため、生成データが好ましいか否かだけでなく、好ましさの種類や程度についても学習することができる。これにより、ユーザは、好ましくない生成データを、より詳細に指定し、その生成を抑制させることができる。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
1:生成モデル学習装置
11:データセット記憶部
12:第1学習部
13:データ生成部
14:データ表示部
15:判定結果受付部
16:データセット更新部
17:第2学習部
11:データセット記憶部
12:第1学習部
13:データ生成部
14:データ表示部
15:判定結果受付部
16:データセット更新部
17:第2学習部
J. Gauthier. Conditional generative adversarial nets for convolutional face generation. Class Project for Stanford CS231N: Convolutional Neural Networks for Visual Recognition, Winter semester 2014
UNSUPERVISED REPRESENTATION L EARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS
Claims (14)
- 予め用意された学習データに基づいて、第1生成モデルを教師なし学習により学習する第1学習工程と、
前記第1生成モデルによる生成データを生成する生成工程と、
前記学習データと、ユーザにより好ましくないと判定された前記生成データと、に基づいて、第2生成モデルを教師あり学習により学習する第2学習工程と、
を含む生成モデル学習方法。 - 前記第1生成モデル及び前記第2生成モデルは、前記生成データを生成する生成器と、前記生成データと前記学習データとを識別する識別器と、を備える敵対的ネットワークである
請求項1に記載の生成モデル学習方法。 - 前記生成器及び前記識別器は、多層ニューラルネットワークにより構成される
請求項2に記載の生成モデル学習方法。 - 前記第2学習工程は、前記第2生成モデルの前記識別器の全てのパラメータを初期状態から学習する工程を含む
請求項2又は請求項3に記載の生成モデル学習方法。 - 前記第1生成モデルの前記識別器と、前記第2生成モデルの前記識別器と、は同一構造を有する共通部分を備え、
前記第2学習工程は、前記第2生成モデルの前記識別器の前記共通部分の少なくとも一部のパラメータを、前記第1生成モデルの前記識別器の前記共通部分のパラメータを初期値として学習し、前記第2生成モデルの前記識別器の他の部分のパラメータを初期状態から学習する工程を含む
請求項2又は請求項3に記載の生成モデル学習方法。 - 前記第1生成モデルの前記識別器と、前記第2生成モデルの前記識別器と、は同一構造を有する共通部分を備え、
前記第2学習工程は、前記第2生成モデルの前記識別器の前記共通部分の少なくとも一部のパラメータを、前記第1生成モデルの前記識別器の他の部分のパラメータに固定し、前記第2生成モデルの前記識別器の非共通部分のパラメータを初期状態から学習する工程を含む
請求項2又は請求項3に記載の生成モデル学習方法。 - 前記第1生成モデルの前記識別器と、前記第2生成モデルの前記識別器と、は同一構成を有し、
前記第2学習工程は、前記第2生成モデルの前記識別器のパラメータを、前記第1生成モデルの前記識別器のパラメータを初期値として学習する工程を含む
請求項2又は請求項3に記載の生成モデル学習方法。 - 前記第1生成モデルの前記識別器と、前記第2生成モデルの前記識別器と、は同一構成を有し、
前記第2学習工程は、前記第2生成モデルの前記識別器の第1部分のパラメータを、前記第1生成モデルの前記識別器の前記第1部分のパラメータに固定し、前記第2生成モデルの前記識別器の第2部分のパラメータを初期状態から学習する工程を含む
請求項2又は請求項3に記載の生成モデル学習方法。 - 前記第1生成モデルの前記識別器と、前記第2生成モデルの前記識別器と、は同一構成を有し、
前記第2学習工程は、前記第2生成モデルの前記識別器の第1部分のパラメータを、前記第1生成モデルの前記識別器の前記第1部分のパラメータに固定し、前記第2生成モデルの前記識別器の第2部分のパラメータを、前記第1生成モデルの前記識別器の前記第2部分のパラメータを初期値として学習する工程を含む
請求項2又は請求項3に記載の生成モデル学習方法。 - 前記第1生成モデルは、DCGAN(Deep Convolutional Generative Adversarial Networks)である
請求項1乃至請求項9のいずれか1項に記載の生成モデル学習方法。 - 前記第2生成モデルは、BDCGAN(Blacklist DCGAN)である
請求項1乃至請求項10のいずれか1項に記載の生成モデル学習方法。 - 前記第2生成モデルは、CGAN(Conditional GAN)である
請求項1乃至請求項10のいずれか1項に記載の生成モデル学習方法。 - 予め用意された学習データに基づいて、第1生成モデルを教師なし学習により学習する第1学習部と、
前記第1生成モデルによる生成データを生成する生成部と、
前記学習データと、ユーザにより好ましくないと判定された前記生成データと、に基づいて、第2生成モデルを教師あり学習により学習する第2学習部と、
を備える生成モデル学習装置。 - 予め用意された学習データに基づいて、第1生成モデルを教師なし学習により学習する第1学習工程と、
前記第1生成モデルによる生成データを生成する生成工程と、
前記学習データと、ユーザにより好ましくないと判定された前記生成データと、に基づいて、第2生成モデルを教師あり学習により学習する第2学習工程と、
をコンピュータに実行させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016200527A JP2018063504A (ja) | 2016-10-12 | 2016-10-12 | 生成モデル学習方法、装置及びプログラム |
| US15/716,558 US20180101770A1 (en) | 2016-10-12 | 2017-09-27 | Method and system of generative model learning, and program product |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016200527A JP2018063504A (ja) | 2016-10-12 | 2016-10-12 | 生成モデル学習方法、装置及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018063504A true JP2018063504A (ja) | 2018-04-19 |
Family
ID=61828899
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016200527A Pending JP2018063504A (ja) | 2016-10-12 | 2016-10-12 | 生成モデル学習方法、装置及びプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20180101770A1 (ja) |
| JP (1) | JP2018063504A (ja) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101960755B1 (ko) * | 2018-12-20 | 2019-03-21 | 문경훈 | 미취득 전력 데이터 생성 방법 및 장치 |
| CN110598792A (zh) * | 2019-09-16 | 2019-12-20 | 福州大学 | 基于pggan迁移学习的排水管道缺陷检测训练数据生成方法 |
| JP2019219914A (ja) * | 2018-06-20 | 2019-12-26 | 株式会社 ディー・エヌ・エー | 画像生成装置、画像生成器、画像識別器、画像生成プログラム、及び、画像生成方法 |
| WO2020017213A1 (ja) * | 2018-07-20 | 2020-01-23 | 富士フイルム株式会社 | 内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラム |
| WO2020043110A1 (zh) * | 2018-08-28 | 2020-03-05 | 洞见未来科技股份有限公司 | 语音处理方法、信息装置与计算机程序产品 |
| EP3667566A1 (en) | 2018-12-11 | 2020-06-17 | Hitachi, Ltd. | Machine learning system, domain conversion device, and machine learning method |
| WO2021162055A1 (ja) * | 2020-02-12 | 2021-08-19 | 国立大学法人大阪大学 | 心的イメージ可視化方法、心的イメージ可視化装置及びプログラム |
| JP2021522886A (ja) * | 2018-04-30 | 2021-09-02 | エレクタ、インク.Elekta, Inc. | 敵対的生成ネットワークを用いた放射線治療計画モデリング |
| JP2021527549A (ja) * | 2018-06-13 | 2021-10-14 | コスモ アーティフィシャル インテリジェンス−エーアイ リミティド | 敵対的生成ネットワークをトレーニングするシステム及び方法、並びに、トレーニング済みの敵対的生成ネットワークの使用 |
| JP2022501661A (ja) * | 2018-09-30 | 2022-01-06 | 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co., Ltd. | 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム |
| JPWO2022064570A1 (ja) * | 2020-09-23 | 2022-03-31 | ||
| WO2022097270A1 (ja) * | 2020-11-06 | 2022-05-12 | 日本電信電話株式会社 | 学習方法、無線品質推定方法、学習装置、無線品質推定装置、及びプログラム |
| JP2022158224A (ja) * | 2021-04-01 | 2022-10-17 | 三菱重工業株式会社 | データ抽出装置、学習モデル構築装置、データ抽出方法、学習モデル構築方法およびプログラム |
| US11676065B2 (en) | 2018-12-12 | 2023-06-13 | Kabushiki Kaisha Toshiba | Model training system |
| JP2023109726A (ja) * | 2022-01-27 | 2023-08-08 | ディープマインド テクノロジーズ リミテッド | 自動的に発見される不合格ケースを使用した、性能の向上したニューラルネットワーク |
| US11896847B2 (en) | 2020-02-07 | 2024-02-13 | Elekta, Inc. | Adversarial prediction of radiotherapy treatment plans |
| US12406057B2 (en) | 2020-05-13 | 2025-09-02 | Nec Corporation | Machine learning method, machine learning system, and program |
Families Citing this family (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11475276B1 (en) * | 2016-11-07 | 2022-10-18 | Apple Inc. | Generating more realistic synthetic data with adversarial nets |
| KR102403494B1 (ko) * | 2017-04-27 | 2022-05-27 | 에스케이텔레콤 주식회사 | 생성적 대립 네트워크에 기반한 도메인 간 관계를 학습하는 방법 |
| JP7047498B2 (ja) * | 2018-03-13 | 2022-04-05 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
| US10698766B2 (en) * | 2018-04-18 | 2020-06-30 | EMC IP Holding Company LLC | Optimization of checkpoint operations for deep learning computing |
| CN112041858B (zh) * | 2018-05-22 | 2024-08-06 | 北京嘀嘀无限科技发展有限公司 | 提供出行建议的系统和方法 |
| CN108724182B (zh) * | 2018-05-23 | 2020-03-17 | 苏州大学 | 基于多类别模仿学习的端到端游戏机器人生成方法及系统 |
| CN109086658B (zh) * | 2018-06-08 | 2021-06-08 | 中国科学院计算技术研究所 | 一种基于生成对抗网络的传感器数据生成方法与系统 |
| CN110619535B (zh) * | 2018-06-19 | 2023-07-14 | 华为技术有限公司 | 一种数据处理方法及其装置 |
| CN108829855B (zh) * | 2018-06-21 | 2021-02-19 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
| CN109190750B (zh) * | 2018-07-06 | 2021-06-08 | 国家计算机网络与信息安全管理中心 | 基于对抗生成网络的小样本生成方法及装置 |
| CN109102496B (zh) * | 2018-07-10 | 2022-07-26 | 武汉科技大学 | 基于变分生成对抗模型识别乳腺肿瘤区域的方法及装置 |
| CN109214408A (zh) * | 2018-07-10 | 2019-01-15 | 武汉科技大学 | 基于生成对抗模型识别肝肿瘤的方法及装置 |
| US10891969B2 (en) * | 2018-10-19 | 2021-01-12 | Microsoft Technology Licensing, Llc | Transforming audio content into images |
| KR102734292B1 (ko) | 2018-11-12 | 2024-11-26 | 삼성전자주식회사 | 데이터 분류 방법 및 장치, 분류기의 학습 방법 및 장치 |
| JP7318197B2 (ja) * | 2018-11-15 | 2023-08-01 | 富士通株式会社 | 逐次学習プログラム、逐次学習装置および逐次学習方法 |
| US11501172B2 (en) * | 2018-12-13 | 2022-11-15 | Sap Se | Accurately identifying members of training data in variational autoencoders by reconstruction error |
| CN109840926B (zh) * | 2018-12-29 | 2023-06-20 | 中国电子科技集团公司信息科学研究院 | 一种图像生成方法、装置及设备 |
| US20220099855A1 (en) * | 2019-01-13 | 2022-03-31 | Schlumberger Technology Corporation | Seismic image data interpretation system |
| CN110598843B (zh) * | 2019-07-23 | 2023-12-22 | 中国人民解放军63880部队 | 一种基于判别器共享的生成对抗网络组织结构的训练方法 |
| CN110662069A (zh) * | 2019-09-20 | 2020-01-07 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种基于快速gan的图像生成方法 |
| JP7448652B2 (ja) * | 2019-11-15 | 2024-03-12 | ロレアル | 教師あり学習のための非ペアデータを使用する画像から画像への変換 |
| CN111651561B (zh) * | 2020-06-05 | 2023-05-02 | 拾音智能科技有限公司 | 一种高质量困难样本生成方法 |
| US20220164656A1 (en) * | 2020-11-24 | 2022-05-26 | Korea University Research And Business Foundation | Generative adversarial network model and training method to generate message id sequence on unmanned moving objects |
| TWI845837B (zh) * | 2021-04-21 | 2024-06-21 | 國立中央大學 | 手寫中文字辨識方法及手寫中文字辨識裝置 |
| CN114240736B (zh) * | 2021-12-06 | 2024-09-20 | 中国科学院沈阳自动化研究所 | 基于VAE和cGAN的同时生成和编辑任意人脸属性的方法 |
| CN117494815B (zh) * | 2023-11-13 | 2024-12-24 | 北京微点科学技术有限公司 | 面向档案的可信大语言模型训练、推理方法和装置 |
-
2016
- 2016-10-12 JP JP2016200527A patent/JP2018063504A/ja active Pending
-
2017
- 2017-09-27 US US15/716,558 patent/US20180101770A1/en not_active Abandoned
Cited By (36)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7145233B2 (ja) | 2018-04-30 | 2022-09-30 | エレクタ、インク. | 敵対的生成ネットワークを用いた放射線治療計画モデリング |
| JP2021522886A (ja) * | 2018-04-30 | 2021-09-02 | エレクタ、インク.Elekta, Inc. | 敵対的生成ネットワークを用いた放射線治療計画モデリング |
| US11557390B2 (en) | 2018-04-30 | 2023-01-17 | Elekta, Inc. | Radiotherapy treatment plan modeling using generative adversarial networks |
| JP2021527549A (ja) * | 2018-06-13 | 2021-10-14 | コスモ アーティフィシャル インテリジェンス−エーアイ リミティド | 敵対的生成ネットワークをトレーニングするシステム及び方法、並びに、トレーニング済みの敵対的生成ネットワークの使用 |
| JP2024075635A (ja) * | 2018-06-13 | 2024-06-04 | コスモ アーティフィシャル インテリジェンス-エーアイ リミティド | 敵対的生成ネットワークをトレーニングするシステム及び方法、並びに、トレーニング済みの敵対的生成ネットワークの使用 |
| JP7455821B2 (ja) | 2018-06-13 | 2024-03-26 | コスモ アーティフィシャル インテリジェンス-エーアイ リミティド | 敵対的生成ネットワークをトレーニングするシステム及び方法、並びに、トレーニング済みの敵対的生成ネットワークの使用 |
| JP2019219914A (ja) * | 2018-06-20 | 2019-12-26 | 株式会社 ディー・エヌ・エー | 画像生成装置、画像生成器、画像識別器、画像生成プログラム、及び、画像生成方法 |
| JPWO2020017213A1 (ja) * | 2018-07-20 | 2021-08-02 | 富士フイルム株式会社 | 内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラム |
| WO2020017213A1 (ja) * | 2018-07-20 | 2020-01-23 | 富士フイルム株式会社 | 内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラム |
| JP7005767B2 (ja) | 2018-07-20 | 2022-01-24 | 富士フイルム株式会社 | 内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラム |
| WO2020043110A1 (zh) * | 2018-08-28 | 2020-03-05 | 洞见未来科技股份有限公司 | 语音处理方法、信息装置与计算机程序产品 |
| US11551707B2 (en) | 2018-08-28 | 2023-01-10 | Relajet Tech (Taiwan) Co., Ltd. | Speech processing method, information device, and computer program product |
| JP7463643B2 (ja) | 2018-09-30 | 2024-04-09 | 京東方科技集團股▲ふん▼有限公司 | 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム |
| JP2022501661A (ja) * | 2018-09-30 | 2022-01-06 | 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co., Ltd. | 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム |
| EP3667566A1 (en) | 2018-12-11 | 2020-06-17 | Hitachi, Ltd. | Machine learning system, domain conversion device, and machine learning method |
| US11281942B2 (en) | 2018-12-11 | 2022-03-22 | Hitachi, Ltd. | Machine learning system, domain conversion device, and machine learning method |
| US11676065B2 (en) | 2018-12-12 | 2023-06-13 | Kabushiki Kaisha Toshiba | Model training system |
| KR101960755B1 (ko) * | 2018-12-20 | 2019-03-21 | 문경훈 | 미취득 전력 데이터 생성 방법 및 장치 |
| CN110598792A (zh) * | 2019-09-16 | 2019-12-20 | 福州大学 | 基于pggan迁移学习的排水管道缺陷检测训练数据生成方法 |
| CN110598792B (zh) * | 2019-09-16 | 2022-10-14 | 福州大学 | 基于pggan迁移学习的排水管道缺陷检测训练数据生成方法 |
| US11896847B2 (en) | 2020-02-07 | 2024-02-13 | Elekta, Inc. | Adversarial prediction of radiotherapy treatment plans |
| WO2021162055A1 (ja) * | 2020-02-12 | 2021-08-19 | 国立大学法人大阪大学 | 心的イメージ可視化方法、心的イメージ可視化装置及びプログラム |
| JP7482551B2 (ja) | 2020-02-12 | 2024-05-14 | 国立大学法人大阪大学 | 心的イメージ可視化方法、心的イメージ可視化装置及びプログラム |
| JPWO2021162055A1 (ja) * | 2020-02-12 | 2021-08-19 | ||
| US12406057B2 (en) | 2020-05-13 | 2025-09-02 | Nec Corporation | Machine learning method, machine learning system, and program |
| JPWO2022064570A1 (ja) * | 2020-09-23 | 2022-03-31 | ||
| JP7448026B2 (ja) | 2020-09-23 | 2024-03-12 | 富士通株式会社 | 検知プログラム、モデル生成プログラム、検知方法、モデル生成方法、検知装置及びモデル生成装置 |
| WO2022064570A1 (ja) * | 2020-09-23 | 2022-03-31 | 富士通株式会社 | モデル生成プログラム、モデル生成方法及びモデル生成装置 |
| JPWO2022097270A1 (ja) * | 2020-11-06 | 2022-05-12 | ||
| WO2022097270A1 (ja) * | 2020-11-06 | 2022-05-12 | 日本電信電話株式会社 | 学習方法、無線品質推定方法、学習装置、無線品質推定装置、及びプログラム |
| JP7688044B2 (ja) | 2020-11-06 | 2025-06-03 | 日本電信電話株式会社 | 学習方法、無線品質推定方法、学習装置、無線品質推定装置、及びプログラム |
| JP7702799B2 (ja) | 2021-04-01 | 2025-07-04 | 三菱重工業株式会社 | データ抽出装置、学習モデル構築装置、データ抽出方法、学習モデル構築方法およびプログラム |
| JP2022158224A (ja) * | 2021-04-01 | 2022-10-17 | 三菱重工業株式会社 | データ抽出装置、学習モデル構築装置、データ抽出方法、学習モデル構築方法およびプログラム |
| JP2023109726A (ja) * | 2022-01-27 | 2023-08-08 | ディープマインド テクノロジーズ リミテッド | 自動的に発見される不合格ケースを使用した、性能の向上したニューラルネットワーク |
| JP7571167B2 (ja) | 2022-01-27 | 2024-10-22 | ディープマインド テクノロジーズ リミテッド | 自動的に発見される不合格ケースを使用した、性能の向上したニューラルネットワーク |
| US12327421B2 (en) | 2022-01-27 | 2025-06-10 | Deepmind Technologies Limited | Using automatically uncovered failure cases to improve the performance of neural networks |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180101770A1 (en) | 2018-04-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018063504A (ja) | 生成モデル学習方法、装置及びプログラム | |
| Guo et al. | Iterative context-aware graph inference for visual dialog | |
| CN110168578B (zh) | 具有任务特定路径的多任务神经网络 | |
| CN110443351B (zh) | 生成映像的自然语言描述 | |
| CN111708876B (zh) | 生成信息的方法和装置 | |
| JP6504590B2 (ja) | 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体 | |
| CN114494718A (zh) | 一种图像分类方法、装置、存储介质及终端 | |
| CN111522962A (zh) | 序列推荐方法、装置及计算机可读存储介质 | |
| WO2020152233A1 (en) | Action selection using interaction history graphs | |
| CN111126574A (zh) | 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质 | |
| CN113792850B (zh) | 字体生成模型训练方法、字库建立方法、装置及设备 | |
| CN113792851B (zh) | 字体生成模型训练方法、字库建立方法、装置及设备 | |
| US20180365557A1 (en) | Information processing method and information processing apparatus | |
| CN111931067A (zh) | 兴趣点推荐方法、装置、设备和介质 | |
| CN110337016A (zh) | 基于多模态图卷积网络的短视频个性化推荐方法及系统 | |
| CN115210752A (zh) | 缺陷检测方法及装置、模型训练方法及装置及电子设备 | |
| US20180247183A1 (en) | Method and system for generative model learning, and recording medium | |
| CN113822318B (zh) | 神经网络的对抗训练方法、装置、计算机设备及存储介质 | |
| CN114600196A (zh) | 特定领域的人类模型协同注释工具 | |
| CN114550313A (zh) | 图像处理方法、神经网络及其训练方法、设备和介质 | |
| US20250148760A1 (en) | Image sequence detection method and apparatus, medium, device, and program product | |
| JP2020061023A (ja) | データ変換方法及び装置、エンコーダ学習方法及び装置並びにプログラム | |
| CN116306524A (zh) | 一种图像中文描述方法、装置、设备及存储介质 | |
| KR102350745B1 (ko) | UX-bit를 이용한 자동 디자인 생성 인공신경망 장치 및 방법 | |
| CN112966592B (zh) | 手部关键点检测方法、装置、设备和介质 |