JP2020119151A - 学習装置、学習方法およびプログラム - Google Patents
学習装置、学習方法およびプログラム Download PDFInfo
- Publication number
- JP2020119151A JP2020119151A JP2019008649A JP2019008649A JP2020119151A JP 2020119151 A JP2020119151 A JP 2020119151A JP 2019008649 A JP2019008649 A JP 2019008649A JP 2019008649 A JP2019008649 A JP 2019008649A JP 2020119151 A JP2020119151 A JP 2020119151A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- gradient
- partial
- calculated
- noise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
Description
第1の実施形態にかかる学習装置は、SGDによる最適化を行う場合に、ミニバッチの勾配算出過程で得られる部分勾配を用いて重みに一時的なノイズを加えて次のミニバッチの部分勾配を算出する。本実施形態では、一様乱数ではなく、部分勾配に含まれるノイズ成分(異方性のノイズ)を利用する。このため、目的関数の形状に対して適当な方向へのノイズを付与すること、すなわち、目的関数に合わせた効率的な平滑化を行うことができる。
・正のスカラー値
・学習係数ηt
・重みノルム||wt+1||
・更新ベクトルノルム||―ηtGt||
・上記値の一部または全部の組合せ
第1の実施形態では、ノイズは全体勾配に依存している。全体勾配は、複数の部分勾配の平均として算出される。一方、複数の装置それぞれで複数の部分勾配を並列に算出し、複数の装置間で通信しながら平均を算出する構成とすれば、学習処理の速度を向上させることができる。第2の実施形態は、このような構成を想定し、ノイズと全体勾配との依存関係をなくし、デバイス間通信処理と並行して次の部分勾配を算出できるようにする。
また第1の実施形態と同様の構成の学習装置が、本実施形態の算出式に従いノイズを算出するように構成してもよい。この場合、部分勾配を並列に算出することはできないが、目的関数の形状に対して適当な方向へのノイズを付与し、目的関数に合わせた効率的な平滑化を行うことができるなどの、第1の実施形態と同様の効果を得ることができる。
また第2の実施形態と同様の構成の学習装置が、第1の実施形態の算出式に従いノイズを算出するように構成してもよい。例えば、3つの学習装置100−2が、第1の実施形態の部分勾配の算出式である(4)式を用いて、あるミニバッチを3分割した複数の部分ミニバッチに対する部分勾配を分散して並列に算出してもよい。なお、学習装置100−2の個数およびミニバッチの分割数は3に限られるものではない。また、ハードウェア構成およびリソースなどに応じて、各学習装置100−2に割り当てる部分ミニバッチのサイズおよび個数などを変更してもよい。
また複数の学習装置100−2のうちいずれかの学習装置100−2(マスターノード)が、他の学習装置100−2(ワーカーノード)を代表して全体勾配および重みを算出するように構成してもよい。マスターノードは、分散して実行する処理を制御する装置である。ワーカーノードは、マスターノードの制御に従って部分ミニバッチに対する処理を実行する。本変形例3では、マスターノードが、学習データの生成、および、重みの更新を実行するため、ワーカーノードは、生成部101−2および更新部103−2を備える必要はない。
101、101−2 生成部
102、102−2 算出部
103、103−2 更新部
104、104−2 出力制御部
121 記憶部
200 情報処理装置
201 受付部
202 情報処理部
221 記憶部
900−2 学習システム
Claims (7)
- 目的関数を用いてニューラルネットワークのパラメータを学習するための複数回の学習処理にそれぞれに用いる複数の学習データを生成する生成部と、
複数の前記学習データの少なくとも一部の前記学習データに対して、前記学習データを分割して得られる部分データに対する前記目的関数の前記パラメータに関する勾配である部分勾配を、他の前記学習データに対して算出された部分勾配に基づいて算出されるノイズが加えられた前記パラメータ、および、前記部分データを用いて算出する算出部と、
を備える学習装置。 - 前記算出部は、
前記学習データに対する前記目的関数の前記パラメータに関する勾配である全体勾配を、前記学習データを分割して得られる複数の部分データに対して算出された複数の部分勾配を用いて算出し、
前記全体勾配と、他の前記学習データに対して算出された部分勾配と、を用いて前記ノイズを算出する、
請求項1に記載の学習装置。 - 前記算出部は、
前記全体勾配と、他の前記学習データに対して算出された部分勾配と、の差分を用いて前記ノイズを算出する、
請求項2に記載の学習装置。 - 前記算出部は、
前記全体勾配を用いて、他の前記学習データに対して算出された第1パラメータを更新することにより、前記学習データに対する第2パラメータを算出し、
前記ノイズが加えられた前記第2パラメータ、および、前記部分データを用いて、前記部分勾配を算出する、
請求項2に記載の学習装置。 - 前記算出部は、
他の前記学習データに対して算出された第1パラメータに前記ノイズを加えた値、および、前記部分データを用いて、前記部分勾配を算出する、
請求項1に記載の学習装置。 - 目的関数を用いてニューラルネットワークのパラメータを学習するための複数回の学習処理にそれぞれに用いる複数の学習データを生成する生成ステップと、
複数の前記学習データの少なくとも一部の前記学習データに対して、前記学習データを分割して得られる部分データに対する前記目的関数の前記パラメータに関する勾配である部分勾配を、他の前記学習データに対して算出された部分勾配に基づいて算出されるノイズが加えられた前記パラメータ、および、前記部分データを用いて算出する算出ステップと、
を含む学習方法。 - コンピュータを、
目的関数を用いてニューラルネットワークのパラメータを学習するための複数回の学習処理にそれぞれに用いる複数の学習データを生成する生成部と、
複数の前記学習データの少なくとも一部の前記学習データに対して、前記学習データを分割して得られる部分データに対する前記目的関数の前記パラメータに関する勾配である部分勾配を、他の前記学習データに対して算出された部分勾配に基づいて算出されるノイズが加えられた前記パラメータ、および、前記部分データを用いて算出する算出部と、
として機能させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019008649A JP7021132B2 (ja) | 2019-01-22 | 2019-01-22 | 学習装置、学習方法およびプログラム |
| US16/553,223 US11526690B2 (en) | 2019-01-22 | 2019-08-28 | Learning device, learning method, and computer program product |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019008649A JP7021132B2 (ja) | 2019-01-22 | 2019-01-22 | 学習装置、学習方法およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020119151A true JP2020119151A (ja) | 2020-08-06 |
| JP7021132B2 JP7021132B2 (ja) | 2022-02-16 |
Family
ID=71608495
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019008649A Active JP7021132B2 (ja) | 2019-01-22 | 2019-01-22 | 学習装置、学習方法およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11526690B2 (ja) |
| JP (1) | JP7021132B2 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023099938A (ja) * | 2022-01-04 | 2023-07-14 | 株式会社東芝 | 学習装置、学習システムおよび学習方法 |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11599774B2 (en) * | 2019-03-29 | 2023-03-07 | International Business Machines Corporation | Training machine learning model |
| US11443240B2 (en) * | 2019-09-06 | 2022-09-13 | Oracle International Corporation | Privacy preserving collaborative learning with domain adaptation |
| US12488223B2 (en) * | 2021-12-21 | 2025-12-02 | International Business Machines Corporation | Federated learning for training machine learning models |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018018451A (ja) * | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
| JP2018018350A (ja) * | 2016-07-28 | 2018-02-01 | 富士通株式会社 | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10475214B2 (en) * | 2017-04-05 | 2019-11-12 | General Electric Company | Tomographic reconstruction based on deep learning |
| EP3571631B1 (en) * | 2017-05-20 | 2024-08-28 | DeepMind Technologies Limited | Noisy neural network layers |
| US10402666B2 (en) * | 2017-12-18 | 2019-09-03 | Ford Global Technologies, Llc | Vehicle monitoring of infrastructure lighting |
| US12014267B2 (en) * | 2018-07-13 | 2024-06-18 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for sequential event prediction with noise-contrastive estimation for marked temporal point process |
| JP7326867B2 (ja) * | 2019-05-21 | 2023-08-16 | 富士通株式会社 | 情報処理装置、情報処理プログラム及び情報処理方法 |
| US11768932B2 (en) * | 2019-06-28 | 2023-09-26 | Baidu Usa Llc | Systems and methods for fast training of more robust models against adversarial attacks |
| JP7322622B2 (ja) * | 2019-09-17 | 2023-08-08 | 富士通株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
| WO2021220008A1 (en) * | 2020-04-29 | 2021-11-04 | Deep Render Ltd | Image compression and decoding, video compression and decoding: methods and systems |
| JP2021197108A (ja) * | 2020-06-18 | 2021-12-27 | 富士通株式会社 | 学習プログラム、学習方法および情報処理装置 |
| US12271826B2 (en) * | 2020-07-20 | 2025-04-08 | Y.E. Hub Armenia LLC | Methods and systems for training a decision-tree based Machine Learning Algorithm (MLA) |
| EP3965052B1 (en) * | 2020-09-04 | 2023-08-16 | Robert Bosch GmbH | Device and method of training a generative neural network |
-
2019
- 2019-01-22 JP JP2019008649A patent/JP7021132B2/ja active Active
- 2019-08-28 US US16/553,223 patent/US11526690B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018018350A (ja) * | 2016-07-28 | 2018-02-01 | 富士通株式会社 | 画像認識装置、画像認識プログラム、画像認識方法および認識装置 |
| JP2018018451A (ja) * | 2016-07-29 | 2018-02-01 | 富士通株式会社 | 機械学習方法、機械学習プログラム及び情報処理装置 |
| US20180032869A1 (en) * | 2016-07-29 | 2018-02-01 | Fujitsu Limited | Machine learning method, non-transitory computer-readable storage medium, and information processing apparatus |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023099938A (ja) * | 2022-01-04 | 2023-07-14 | 株式会社東芝 | 学習装置、学習システムおよび学習方法 |
| JP7669300B2 (ja) | 2022-01-04 | 2025-04-28 | 株式会社東芝 | 学習装置、学習システムおよび学習方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20200234082A1 (en) | 2020-07-23 |
| US11526690B2 (en) | 2022-12-13 |
| JP7021132B2 (ja) | 2022-02-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3673419B1 (en) | Population based training of neural networks | |
| US11861474B2 (en) | Dynamic placement of computation sub-graphs | |
| JP7470476B2 (ja) | 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合 | |
| JP7021132B2 (ja) | 学習装置、学習方法およびプログラム | |
| US20190050727A1 (en) | Neural network training | |
| JP6773618B2 (ja) | 学習装置、情報処理装置、学習方法およびプログラム | |
| JP6610278B2 (ja) | 機械学習装置、機械学習方法及び機械学習プログラム | |
| JP2020046883A (ja) | 分類装置、分類方法およびプログラム | |
| CN110322020B (zh) | 分布式随机梯度下降的自适应学习率调度 | |
| JP2020024612A (ja) | 画像処理装置、画像処理方法、処理装置、処理方法、及びプログラム | |
| JP6612716B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
| JP2020181240A (ja) | データ生成装置、データ生成方法およびプログラム | |
| JPWO2018168695A1 (ja) | 分散機械学習装置、分散機械学習方法および分散機械学習プログラム | |
| CN103782290A (zh) | 建议值的生成 | |
| CN109670579A (zh) | 模型生成方法和装置 | |
| JP2019082847A (ja) | データ推定装置、データ推定方法及びプログラム | |
| JP7167640B2 (ja) | 最適化装置、最適化方法、およびプログラム | |
| CN114065943B (zh) | 超参数处理方法、装置、电子设备及存储介质 | |
| WO2020110272A1 (ja) | 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体 | |
| JP2020003860A (ja) | 学習システム、処理装置、処理方法、およびプログラム | |
| JP7548432B2 (ja) | 学習方法 | |
| JP7171477B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
| JP2012079080A (ja) | パラメタ学習装置およびそのプログラム | |
| JP6877666B1 (ja) | 分類装置、分類方法およびプログラム | |
| US20250156757A1 (en) | Client-based re-training and evaluation of artificial-intelligence model |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210714 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211018 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220203 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7021132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |