JP2021114034A - ニューラルネットワーク及びその生成方法 - Google Patents
ニューラルネットワーク及びその生成方法 Download PDFInfo
- Publication number
- JP2021114034A JP2021114034A JP2020005238A JP2020005238A JP2021114034A JP 2021114034 A JP2021114034 A JP 2021114034A JP 2020005238 A JP2020005238 A JP 2020005238A JP 2020005238 A JP2020005238 A JP 2020005238A JP 2021114034 A JP2021114034 A JP 2021114034A
- Authority
- JP
- Japan
- Prior art keywords
- data
- layer
- neural network
- input
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】それぞれ複数のニューロン11、12、13が設けられた入力層14、中間層15及び出力層16を有し、入力層14に与えられる入力データを対応するクラスに分類するニューラルネットワーク10において、入力層14に与えられる入力データが、分類すべきデータである際に反応せず、分類すべきでないデータである際に反応する余剰ニューロン17を、中間層15に備える。
【選択図】図1
Description
認識処理では、人が分類したラベル付き学習用データを教師として、ニューラルネットワークを教師あり学習し、対応するクラスに正しく分類できるようにする。画像認識処理を行う場合、前処理として認識を行う領域を入力データ(画像データ)から切り出す領域分割処理がなされる。
本発明は、かかる事情に鑑みてなされたもので、入力データが分類すべきでないデータに対応可能なニューラルネットワーク及びその生成方法を提供することを目的とする。
入力層J、余剰ニューロンが設けられた中間層K及び出力層Lを有する第2ニューラルネットワークに対し、分類すべき学習用の入力データを前記入力層Jに与え、前記余剰ニューロンに、該余剰ニューロンが無反応なことを意味する無反応データを教師データとして与える工程Aと、前記第2ニューラルネットワークに対し、分類すべきでない学習用の入力データを前記入力層Jに与え、前記余剰ニューロンに、該余剰ニューロンが反応していることを意味する反応データを教師データとして与える工程Bと、前記第2ニューラルネットワークに対し、入力データを前記入力層Jに与え、該入力層Jに与えた入力データを、前記出力層Lから出力される出力データの教師データとして与える工程Cと、前記第1ニューラルネットワークに、前記工程A、B、Cを経た前記第2ニューラルネットワークの前記入力層J及び前記中間層Kを、前記入力層P及び前記中間層Qとしてそれぞれ組み込む工程Dとを有する。
図1に示すように、本発明の一実施の形態に係るニューラルネットワーク10は、それぞれ複数のニューロン11、12、13が設けられた入力層14、中間層15及び出力層16を有し、入力層14に与えられる入力データを対応するクラスに分類するシステムである。以下、詳細に説明する。
余剰ニューロン17は、入力層14に与えられる入力データが、分類(一のクラスに分類)すべきデータである際には反応せず(本実施の形態では、0を出力し)、分類すべきでないデータである際に反応する(本実施の形態では、1を出力する)。ここで、分類すべきでないデータとは、分類すべきでないことを学習したデータや、分類すべきか否かを学習していない未知のデータや、ノイズ等が該当する。
また、入力層14に分類すべきでない入力データが与えられると、余剰ニューロン17が原則反応する。ニューラルネットワーク10は、余剰ニューロン17が反応した際に、入力データが分類すべきデータでないことを検知する。
ニューラルネットワーク30は、図2に示すように、自己符号化器(Autoencoder)に該当し、入力層14’、中間層15’及び出力層31に複数のニューロン11’、複数のニューロン12’及び複数のニューロン13’をそれぞれ具備し、中間層15’には更に、従来の自己符号化器には存在しない余剰ニューロン17’を備えている。
この教師なし学習では、多層パーセプトロンの教師あり学習とは異なり、人が決定する定義に依存しない学習が行われる。そのため、自己符号化器50に学習させたいデータだけあれば、自己符号化器50は、入力データが人では分類不可能なデータや未学習のクラスに該当するデータであっても、その入力データに対する表現ができるようになる。
次に、ニューラルネットワーク10を生成する方法(本発明の一実施の形態に係るニューラルネットワークの生成方法)について説明する。
ニューラルネットワーク10の生成(設計)は、主に、ニューラルネットワーク30の学習と、学習後のニューラルネットワーク30の入力層14’及び中間層15’(エンコーダ部)の、ニューラルネットワーク10のエンコーダ部18への組み込みとによって構成される。
生成されたニューラルネットワーク10に対し、教師あり学習が行われ、ニューラルネットワーク10は入力データをクラスに分類できるようになる。
各実験では、第2ニューラルネットワークに該当する自己符号化器として、784−100−784の(入力層が784個のニューロン、中間層が100個のニューロン、出力層が784個のニューロンを有する)単層モデルを採用し、中間層の100個のニューロンのうち、特定の10個を余剰ニューロンとして扱った。よって、第2ニューラルネットワーク(第1ニューラルネットワークについても同じ)は中間層に2個以上の余剰ニューロンを具備することができる。自己符号化器は、中間層の活性化関数がReLU関数であり、出力層の活性化関数が恒等関数であった。
第1の実験では、まず、ラベル0〜2に属する合計18,000個の学習用画像データを用いて、自己符号化器に対し上記(1)〜(4)の処理を行った。以下、該当の処理を行った自己符号化器を学習済み自己符号化器と言う。
その後、学習済み自己符号化器において、ラベル0〜2に属する合計3,000個のテスト用画像データ(学習済み自己符号化器のエンコーダ部を有する分類器(以下、単に「分類器」と言う)で分類すべきデータに該当)及びラベル3〜9に属する合計7,000個のテスト用画像データ(分類器で分類すべきでないデータに該当)を入力層に与え、入力層に与えたテスト用画像データと出力層から出力される画像データの誤差と、余剰ニューロンの出力値とを調べた。なお、第1の実験及び後述する第2、第3の実験では、エポック数が50でバッチ数が200のミニバッチ学習を行った。
表1に示された結果から、ラベル0〜2のテスト用画像データ(分類すべき対象)全てに対して、10個の余剰ニューロンが0を出力したこと、即ち、余剰ニューロンが無反応で出力層での画像データの再構成に寄与しなかったことが確認できる。更に、ラベル3〜9のテスト用画像データ(分類すべきでない対象)に対しては、一部の余剰ニューロンの出力が0ではなかったこと、即ち、余剰ニューロンがラベル0〜2のテスト用画像データとは異なる特徴を持つラベル3〜9のテスト用画像データに対して反応したことが確認できる。
第2の実験では、学習用画像データ及びテスト用画像データを、以下の表2に示すように、3つのタイプとして扱った。
第3の実験は、自己符号化器の学習の際、自己符号化器及び自己符号化器の各入力層に、ラベル0〜2に属する18,000個の学習用画像データと、450個のノイズデータを与えるようにした。ノイズデータには値域[0,1)の一様乱数を用いた。また、学習済み自己符号化器に対し、ラベル0〜2に属する3,000個のテスト用画像データと、ラベル3〜9に属する7,000個のテスト用画像データとを使用した。
例えば、第2ニューラルネットワークは、自己符号化器である必要は無く、制限付きボルツマンマシン(Restricted Boltzmann Machine)等であってもよい。
Claims (2)
- それぞれ複数のニューロンが設けられた入力層、中間層及び出力層を有し、前記入力層に与えられる入力データを対応するクラスに分類するニューラルネットワークにおいて、
前記入力層に与えられる入力データが、分類すべきデータである際に反応せず、分類すべきでないデータである際に反応する余剰ニューロンを、前記中間層に備えることを特徴とするニューラルネットワーク。 - 入力層P、中間層Q及び出力層Rを有し、該入力層Pに与えられた入力データを対応するクラスに分類する第1ニューラルネットワークを生成するニューラルネットワークの生成方法において、
入力層J、余剰ニューロンが設けられた中間層K及び出力層Lを有する第2ニューラルネットワークに対し、分類すべき学習用の入力データを前記入力層Jに与え、前記余剰ニューロンに、該余剰ニューロンが無反応なことを意味する無反応データを教師データとして与える工程Aと、
前記第2ニューラルネットワークに対し、分類すべきでない学習用の入力データを前記入力層Jに与え、前記余剰ニューロンに、該余剰ニューロンが反応していることを意味する反応データを教師データとして与える工程Bと、
前記第2ニューラルネットワークに対し、入力データを前記入力層Jに与え、該入力層Jに与えた入力データを、前記出力層Lから出力される出力データの教師データとして与える工程Cと、
前記第1ニューラルネットワークに、前記工程A、B、Cを経た前記第2ニューラルネットワークの前記入力層J及び前記中間層Kを、前記入力層P及び前記中間層Qとしてそれぞれ組み込む工程Dとを有することを特徴とするニューラルネットワークの生成方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020005238A JP7485332B2 (ja) | 2020-01-16 | 2020-01-16 | ソフトウェアプログラム、回路基板及びニューラルネットワークの生成方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020005238A JP7485332B2 (ja) | 2020-01-16 | 2020-01-16 | ソフトウェアプログラム、回路基板及びニューラルネットワークの生成方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021114034A true JP2021114034A (ja) | 2021-08-05 |
| JP7485332B2 JP7485332B2 (ja) | 2024-05-16 |
Family
ID=77077596
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020005238A Active JP7485332B2 (ja) | 2020-01-16 | 2020-01-16 | ソフトウェアプログラム、回路基板及びニューラルネットワークの生成方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7485332B2 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05307536A (ja) * | 1992-03-03 | 1993-11-19 | Toshiba Corp | ニューラルネット装置及びその演算素子 |
| JPH05342187A (ja) * | 1992-06-08 | 1993-12-24 | Toshiba Corp | 神経回路網構築装置 |
| WO2018008593A1 (ja) * | 2016-07-04 | 2018-01-11 | 日本電気株式会社 | 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体 |
| JP2019091236A (ja) * | 2017-11-14 | 2019-06-13 | 富士通株式会社 | 特徴抽出装置、特徴抽出プログラム、および特徴抽出方法 |
-
2020
- 2020-01-16 JP JP2020005238A patent/JP7485332B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05307536A (ja) * | 1992-03-03 | 1993-11-19 | Toshiba Corp | ニューラルネット装置及びその演算素子 |
| JPH05342187A (ja) * | 1992-06-08 | 1993-12-24 | Toshiba Corp | 神経回路網構築装置 |
| WO2018008593A1 (ja) * | 2016-07-04 | 2018-01-11 | 日本電気株式会社 | 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体 |
| JP2019091236A (ja) * | 2017-11-14 | 2019-06-13 | 富士通株式会社 | 特徴抽出装置、特徴抽出プログラム、および特徴抽出方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7485332B2 (ja) | 2024-05-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Tuli et al. | Are convolutional neural networks or transformers more like human vision? | |
| Shen et al. | Adversarial deep network embedding for cross-network node classification | |
| Roli et al. | Methods for designing multiple classifier systems | |
| Ishida et al. | Binary classification from positive-confidence data | |
| US9852158B2 (en) | Dynamic adaptation of feature identification and annotation | |
| Davtalab et al. | Multi-level fuzzy min-max neural network classifier | |
| Lam et al. | Discovering useful concept prototypes for classification based on filtering and abstraction | |
| El Gayar et al. | A study of the robustness of KNN classifiers trained using soft labels | |
| Krleža et al. | Graph matching using hierarchical fuzzy graph neural networks | |
| CN116868206A (zh) | 跨域自适应学习 | |
| US11715032B2 (en) | Training a machine learning model using a batch based active learning approach | |
| KR20200095076A (ko) | 인공지능 기반의 세탁물 처리 정보 제공 장치 | |
| Khoshgoftaar et al. | Enhancing software quality estimation using ensemble-classifier based noise filtering | |
| Zhao et al. | Topoimb: Toward topology-level imbalance in learning from graphs | |
| Manoharan et al. | A hybrid approach to accelerate the classification accuracy of cervical cancer data with class imbalance problems | |
| Collier et al. | Transfer and marginalize: Explaining away label noise with privileged information | |
| Liu et al. | Handling inter-class and intra-class imbalance in class-imbalanced learning | |
| Wozniak et al. | Some remarks on chosen methods of classifier fusion based on weighted voting | |
| Mottalib et al. | Fabric defect classification with geometric features using Bayesian classifier | |
| Özyurt et al. | Fuzzy genetic algorithm based inductive learning system (FGALS): a new machine learning approach and application for chemical process fault diagnosis | |
| Raj et al. | Multi-Modal Fusion of Deep Learning with CNN based COVID-19 Detection and Classification Combining Chest X-ray Images | |
| JP2021114034A (ja) | ニューラルネットワーク及びその生成方法 | |
| Bai et al. | Tabu search enhanced Markov blanket classifier for high dimensional data sets | |
| CN114241526B (zh) | 分类模型、训练方法、分类方法、电子设备及存储介质 | |
| Rahman et al. | A preprocessed counterpropagation neural network classifier for automated textile defect classification |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200207 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221219 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230703 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231222 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240228 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240424 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7485332 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |