[go: up one dir, main page]

JP6476531B1 - 処理装置、処理方法、コンピュータプログラム及び処理システム - Google Patents

処理装置、処理方法、コンピュータプログラム及び処理システム Download PDF

Info

Publication number
JP6476531B1
JP6476531B1 JP2018039896A JP2018039896A JP6476531B1 JP 6476531 B1 JP6476531 B1 JP 6476531B1 JP 2018039896 A JP2018039896 A JP 2018039896A JP 2018039896 A JP2018039896 A JP 2018039896A JP 6476531 B1 JP6476531 B1 JP 6476531B1
Authority
JP
Japan
Prior art keywords
data
neural network
convolutional neural
output
converter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018039896A
Other languages
English (en)
Other versions
JP2019153229A (ja
Inventor
修二 奥野
修二 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TSUBASA FACTORY CO., LTD.
Original Assignee
TSUBASA FACTORY CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TSUBASA FACTORY CO., LTD. filed Critical TSUBASA FACTORY CO., LTD.
Priority to JP2018039896A priority Critical patent/JP6476531B1/ja
Priority to PCT/JP2019/008653 priority patent/WO2019172262A1/ja
Priority to US17/251,141 priority patent/US20210374528A1/en
Application granted granted Critical
Publication of JP6476531B1 publication Critical patent/JP6476531B1/ja
Publication of JP2019153229A publication Critical patent/JP2019153229A/ja
Priority to US17/301,455 priority patent/US20210287041A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】畳み込みニューラルネットワーク(CNN(Convolutional Neural Network ))による演算処理を効率化する処理装置、処理方法、コンピュータプログラム及び処理システムを提供する。
【解決手段】畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換する第1の変換器、及び前記畳み込みニューラルネットワークから出力されるデータを非線形に空間変換する第2の変換器、又はいずれか一方を備える。
【選択図】図3

Description

本開示は、畳み込みニューラルネットワークを用いる処理を効率化する処理装置、処理方法、コンピュータプログラム及び処理システムに関する。
ニューラルネットワークを用いた学習が多くの分野に適用されている。特に画像認識、音声認識の分野にて、ニューラルネットワークを多層構造で使用したディープラーニング(Deep Learning ;深層学習)が高い認識精度を発揮している。多層化したディープラーニングでも、入力の特徴を抽出する畳み込み層及びプーリング層を複数回使用した畳み込みニューラルネットワーク(以下、CNN(Convolutional Neural Network )と呼ぶ)を用いた画像認識が行なわれている。
CNNによる学習では、ニューラルネットワークを多階層化して用いるため、使用メモリ量が増大し、学習結果を出力するまでに多くの時間を要する。そこでCNNに認識処理の対象となる画像データを入力する前に、輝度値(画素値)の正規化等の前処理が行なわれている(特許文献1等)。
特開2018−018350号公報
正規化のような処理でも一定の効果が得られるが、出力結果に影響なくCNNの処理結果をより高速に得られる手法が期待される。
本開示は斯かる事情に鑑みてなされたものであり、CNNによる演算処理を効率化する処理装置、処理方法、コンピュータプログラム及び処理システムを提供することを目的とする。
本開示の処理装置は、畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換する第1の変換器、及び前記畳み込みニューラルネットワークから出力されるデータを非線形に空間変換する第2の変換器、又はいずれか一方を備える。
本開示の処理装置では、前記第1及び第2の変換器は、前記畳み込みニューラルネットワークへ入力する前記データのチャンネル数又は出力チャンネル数と同一数のノード数を有する入力層と、該入力層よりもノード数が多い畳み込み層又は緻密層である第2層と、該第2層よりもノード数が少ない畳み込み層又は緻密層である第3層とを含む。
本開示の処理装置では、前記第1の変換器は、学習用データを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと、前記学習用データに対応する第2出力データとの差分に基づき学習された前記第1の変換器におけるパラメータを記憶している。
本開示の処理装置では、前記第2の変換器は、学習用データを前記第1の変換器によって変換した後のデータ又は第1の変換器による変換を行なわずに前記畳み込みニューラルネットワークへ入力して得られる出力データを前記第2の変換器によって変換した後の第3出力データと、前記学習用データに対応する第4出力データとの差分に基づき学習された前記第2の変換器におけるパラメータを記憶している。
本開示の処理装置は、前記畳み込みニューラルネットワークから出力されるデータを周波数に応じて分解する帯域フィルタと、学習用データを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データを前記帯域フィルタへ入力して得られる第5出力データと、前記学習用データに対応する第2出力データを前記帯域フィルタへ入力して得られる第6出力データとの差分に基づき、前記第1の変換器、及び畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部とを備える。
本開示の処理装置は、前記第1の変換器へ入力するデータを周波数に応じて分解する帯域フィルタと、学習用データを前記帯域フィルタへ入力して得られるデータを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第7出力データと、前記学習用データに対応する第8出力データとの差分に基づき、前記第1の変換器、及び畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部とを備える。
本開示の処理装置では、前記データはマトリックス状に配列した画素値からなる画像データである。
本開示の処理方法は、畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理方法において、前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換し、空間変換後のデータを、前記畳み込みニューラルネットワークへ入力する。
本開示の処理方法では、前記空間変換は、学習用データを空間変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと、前記学習用データに対応する第2出力データとの差分に基づき学習された空間変換用のパラメータによって実行される。
本開示の処理方法は、畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理方法において、前記畳み込みニューラルネットワークから出力されるデータを取得し、取得されたデータを非線形に空間変換して出力する。
本開示のコンピュータプログラムは、コンピュータに、畳み込み層を含む畳み込みニューラルネットワークへ入力するデータを受け付け、前記データを非線形に空間変換し、学習用データを空間変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと、前記学習用データに対応する第2出力データとの差分に基づき、空間変換及び前記畳み込みニューラルネットワークにおけるパラメータを学習する処理を実行させる。
本開示のコンピュータプログラムは、コンピュータに、畳み込み層を含む畳み込みニューラルネットワークから出力されるデータを非線形に空間変換し、学習用データを前記畳み込みニューラルネットワークへ入力して得られる空間変換後の第3出力データと、前記学習用データに対応する第4出力データとの差分に基づき、前記畳み込みニューラルネットワーク及び空間変換におけるパラメータを学習する処理を実行させる。
本開示の処理システムは、上述のいずれか1つの処理装置、又は上述のいずれかのコンピュータプログラムを実行するコンピュータへ、入力データを送信し、前記処理装置又はコンピュータから出力されたデータを受信して利用する利用装置を備える。
本開示の処理システムでは、前記利用装置は、テレビジョン受信機、表示装置、撮像装置、又は表示部及び通信部を備える情報処理装置である。
本開示の一態様では、入力データが入力と出力とで非線形に歪む処理が第1の変換器で行なわれてから畳み込みニューラルネットワークへ入力される。非線形な空間変換を行なってから畳み込み層に入力して学習を行なうことにより、空間変換によって特性を強調する空間変換が学習される。
本開示の一態様では、変換器は入力チャンネル数と同数のノード数を第1層目に有し、入力チャンネル数よりも多いノード数の畳み込み層を第2層目に有している。更に第2層目よりも少ないノード数で出力する第3層目を有している。畳み込みニューラルネットワークと併せた学習により、学習目的に応じた非線形空間変換処理を実現する変換器が構成される。
本開示の一態様では、畳み込みニューラルネットワークの後段に、前記変換器の非線形空間変換の逆変換、又は別途異なる非線形の変換を行なう第2の変換器が用いられる。入力データ及び出力データが画像データである場合等、出力では入力側で行なった非線形な空間変換を戻すような変換が必要になる場合がある。第2の変換器も、入力側の変換器同様に、第2層目でノード数が多い3層のニューラルネットワークの一部を構成し、併せて学習が行なわれる。第1の変換器と第2の変換器とでは、両方又はいずれか一方が使用される。
本開示の一態様では、畳み込みニューラルネットワークの後段に帯域フィルタが設けられ、帯域フィルタから出力されるデータと、学習用データに対応するデータに対し同様の帯域フィルタを掛けて得られるデータとの差分から学習が行なわれる。帯域フィルタによって特定の周波数の影響を強調するか、又は除外して得られる出力データで学習が行なわれる。
本開示の一態様では、畳み込みニューラルネットワークの前段に、変換器と共に帯域フィルタが設けられ、畳み込み前に帯域フィルタにて特定の周波数の影響を強調するか、又は除外して得られるデータを用いて学習が行なわれる。
本開示の一態様では、上述の処理により学習済みのニューラルネットワークから得られるデータを利用した処理システムで種々のサービスが提供される。利用してサービスを提供する装置は、テレビジョン放送を受信して表示するテレビジョン受信機、画像を表示する表示装置、カメラである撮像装置等である。また、表示部及び通信部を備えて前記処理装置又はコンピュータと情報を送受信できる情報処理装置であり、例えば所謂スマートフォン、ゲーム機器、オーディオ機器等であってもよい。
本開示の処理により、畳み込みニューラルネットワークにおける学習効率の向上、学習速度の向上が期待される。
本実施の形態における画像処理装置の構成を示すブロック図である。 画像処理装置の機能ブロック図である。 CNN及び変換器の構成を示す説明図である。 変形例1における画像処理装置の機能ブロック図である 帯域フィルタの利用方法を示す説明図である。 帯域フィルタの内容例の1つを示す図である。 帯域フィルタの他の内容例を示す図である。 変形例2における画像処理装置の機能ブロック図である。 帯域フィルタの内容を示す説明図である。
以下、本願に係る演算処理装置について、実施の形態を示す図面を参照しつつ説明する。なお本実施の形態では、演算処理装置における処理を画像に対して処理を実行する画像処理装置に適用した例を挙げて説明する。
図1は、本実施の形態における画像処理装置1の構成を示すブロック図であり、図2は画像処理装置1の機能ブロック図である。画像処理装置1は、制御部10、画像処理部11、記憶部12、通信部13、表示部14及び操作部15を備える。なお画像処理装置1及び画像処理装置1における動作について以下では、1台のサーバコンピュータとして説明するが、複数のコンピュータによって処理を分散するようにして構成されてもよい。
制御部10は、CPU(Central Processing Unit )等のプロセッサ及びメモリ等を用い、装置の構成部を制御して各種機能を実現する。画像処理部11は、GPU(Graphics Processing Unit)又は専用回路等のプロセッサ及びメモリを用い、制御部10からの制御指示に応じて画像処理を実行する。なお、制御部10及び画像処理部11は、CPU,GPU等のプロセッサ、メモリ、更には記憶部12及び通信部13を集積した1つのハードウェア(SoC:System on a Chip)として構成されていてもよい。
記憶部12は、ハードディスク又はフラッシュメモリを用いる。記憶部12には、画像処理プログラム1P、DL(Deep Learning )用、特にCNNとしての機能を発揮させるCNNライブラリ1L、及び変換器ライブラリ2Lが記憶されている。また記憶部12には、1つの学習毎に作成されるCNN111又は変換器112を定義する情報、学習済みCNN111における各層の重み係数等を含むパラメータ情報等が記憶される。
通信部13は、インターネット等の通信網への通信接続を実現する通信モジュールである。通信部13は、ネットワークカード、無線通信デバイス又はキャリア通信用モジュールを用いる。
表示部14は、液晶パネル又は有機EL(Electro Luminescence)ディプレイ等を用いる。表示部14は、制御部10の指示による画像処理部11での処理によって画像を表示することが可能である。
操作部15は、キーボード又はマウス等のユーザインタフェースを含む。筐体に設けられた物理的ボタンを用いてもよい。及び表示部14に表示されるソフトウェアボタン等を用いてもよい。操作部15は、ユーザによる操作情報を制御部10へ通知する。
読取部16は、例えばディスクドライブを用い、光ディスク等を用いた記録媒体2に記憶してある画像処理プログラム2P、CNNライブラリ3L、及び変換器ライブラリ4Lを読み取ることが可能である。記憶部12に記憶してある画像処理プログラム1P、CNNライブラリ1L、及び変換器ライブラリ2Lは、記録媒体2から読取部16が読み取った画像処理プログラム2P、CNNライブラリ3L、及び変換器ライブラリ4Lを制御部10が記憶部12に複製したものであってもよい。
画像処理装置1の制御部10は、記憶部12に記憶してある画像処理プログラム1Pに基づき、画像処理実行部101として機能する。また画像処理部11は、記憶部12に記憶してあるCNNライブラリ1L、定義データ、パラメータ情報に基づきメモリを用いてCNN111(CNNエンジン)として機能し、また変換器ライブラリ2L、フィルタ情報に基づきメモリを用いて変換器112として機能する。画像処理部11は、変換器112の種類に応じて逆変換器113として機能する場合もある。
画像処理実行部101は、CNN111、変換器112及び逆変換器113を用い、各々へデータを与え、各々から出力されるデータを取得する処理を実行する。画像処理実行部101は、ユーザの操作部15を用いた操作に基づき、入力データである画像データを変換器112に入力し、変換器112から出力されたデータをCNN111に入力する。画像処理実行部101は、CNN111から出力されたデータを必要に応じて逆変換器113へ入力し、逆変換器113から出力されたデータを出力データとして記憶部12に出力する。画像処理実行部101は、出力データを画像処理部11へ与えて画像として描画し、表示部14へ出力してもよい。
CNN111は、定義データにより定義される複数段の畳み込み層及びプーリング層と、全結合層とを含み、入力データの特徴量を取り出し、取り出された特徴量に基づいて分類を行なう。
変換器112は、CNN111同様に畳み込み層と多チャンネル層とを含み、入力されたデータに対して非線形変換を行なう。ここで非線形変換とは、例えば色空間変換、レベル補正といった入力値を、図2中で示すように非線形に歪めるような処理を言う。逆変換器113は、畳み込み層と多チャンネル層とを含んで逆変換する。なお逆変換器113は変換器112による歪みを戻す機能を果たすが、変換器112と対称となるような変換とは限らない。
図3は、CNN111及び変換器112の構成を示す説明図である。図3は、変換器112及び逆変換器113をCNN111に対応させて表現している。図3に示すように、変換器112は、入力画像のチャンネル数と同一のチャンネル数を有する第1層と、第1層よりもノード数が多い畳み込み層(CONV)である第2層と、第2層よりもノード数が少ない第3層とで構成される。なお図3Aはチャンネル数を3(例えばRGBカラー画像)とし、図3Bはチャンネル数を1(例えばグレースケール画像)とした図を示している。第2層及び第3層は、1つの重みとバイアスのみを有するフィルタサイズ1×1の畳み込み層である。これにより、図2の機能ブロック図に示したように、入力に対して非線形出力が得られる。なお変換器112の第3層の出力チャンネル数(ノード数)は、図3の例では入力チャンネル数と同数であるが、これに限らず減少させて圧縮としてもよいし、増加させてもよい(冗長化される)。このような構成とした変換器112は、入力データのサンプル値(画像データであれば画素値(輝度値))を非線形に歪ませる作用を施し、隣接するサンプルには依存しない。
逆変換器113は、CNN111の出力チャネル数と同一のチャンネル数(ノード数)を有する第1層と、第1層よりもノード数が多い緻密層(DENSE )である第2層と、第1層と同一のノード数(出力チャンネル数)を持つ第3層とで構成される。図3A及び図3Bでは入力及び出力チャンネル数を3としているが、分類数の入出力であればよく、3分類の場合は3ノード入力3ノード出力であり、10分類であれば10ノード入力10ノード出力である。逆変換器113は、変換器112同様に入力に対して非線形変換を行ない、入力サンプル値を非線形に歪めるような処理を行なう作用を持つ。なお逆変換器113は緻密層を第2層に有するものに限らず、畳み込み層によって構成されるものであってもよい。
本実施の形態では、変換器112及び逆変換器113の両者を用いる構成とした。しかしながら、変換器112のみ、又は逆変換器113のみを用いる構成としてもよい。
本実施の形態では、画像処理実行部101が、変換器112及び逆変換器113を、CNN111を含むCNNの一部として用いて学習を行なう。具体的には画像処理実行部101は学習時には、学習データをCNN全体に入力して得られる出力データと、既知の学習データの分類(出力)との誤差を最小にする処理を実行し、変換器112又は逆変換器113における重みを更新する。この学習処理により得られるCNN111におけるパラメータと、変換器112における重みとは、対応するパラメータとして記憶部12に記憶される。画像処理実行部101は、学習済みCNN111を使用する場合には、CNN111を定義する定義情報及び記憶部12に記憶してあるパラメータと、対応する変換器112の重みとを用い、入力データを変換器112に入力した後のデータをCNN111へ入力して用いる。逆変換器113を用いる場合も学習により得られる学習済みCNN111を定義する定義情報及びパラメータと対応する重みを使用する。
変換器112は畳み込みによる特徴抽出の前段に入力することによって、抽出されるべき画像の特徴を更に強調するように作用し、これによりCNN111における学習効率及び学習精度が向上することが期待される。
なお、本実施の形態における画像処理装置1のハードウェア構成の内、通信部13、表示部14、操作部15、及び読取部16は必須ではない。通信部13については、例えば記憶部12に記憶される画像処理プログラム1P、CNNライブラリ1L及び変換器ライブラリ2Lを外部サーバ装置から取得する場合に一旦使用された後は使用しない場合がある。読取部16も同様に、画像処理プログラム1P、CNNライブラリ1L及び変換器ライブラリ2Lを記憶媒体から読み出して取得した後は使用されない可能性がある。そして通信部13及び読取部16は、USB(Universal Serial Bus)等のシリアル通信を用いた同一のデバイスであってもよい。
また画像処理装置1がWebサーバとして、上述のCNN111、変換器112、及び逆変換器113としての機能のみを、表示部及び通信部を備えるWebクライアント装置へ提供する構成としてもよい。この場合通信部13は、Webクライアント装置からのリクエストを受信し、処理結果を送信するために使用される。
本実施の形態における変換器112としての機能は、逆変換器113と対、又はいずれか一方のみでツールのようにして単独で提供されてもよい。つまりユーザは、前後で接続されるCNNを特定のものとせずに任意のものを選択でき、選択したCNNに対して本実施の形態における変換器112及び/又は逆変換器113を適用して学習を行なうことができる。
本実施の形態では、マトリックス状に配列した色(RGB)別の画素値からなる画像データを入力データとして、入力データに変換を施してから学習を行なう例を挙げて説明した。しかしながら入力データは画像データに限らず、複数次元の情報を持つデータであれば適用可能である。
なお学習時に用いる誤差は、二乗誤差、絶対値誤差、又は交差エントロピー誤差等、入出力されるデータ、学習目的に応じて適切な関数を用いるとよい。例えば、出力が分類である場合、交差エントロピー誤差を用いる。誤差関数を用いることに拘わらずその他の基準を用いるなど柔軟な運用が適用できる。この誤差関数自体に外部のCNNを用いて評価を行なってもよい。
(変形例1)
本実施の形態で示した変換器112及び逆変換器113の利用に加え、入力データを画像データとする場合は特に、特定の周波数成分の影響を考慮した帯域フィルタ114を用いることで、更に学習効率及び学習精度を向上させることが期待できる。
図4は、変形例1における画像処理装置1の機能ブロック図である。図4に示すように変形例1における画像処理部11は、出力の後段に帯域フィルタ114が追加される。帯域フィルタ114は、特定の周波数を除去したり抽出したりするフィルタである。なお帯域フィルタ114は学習時のみに使用される。
図5は、帯域フィルタ114の利用方法を示す説明図である。図5Aに、帯域フィルタ114を利用した学習方法を示し、図5Bには、説明を容易とするために従来の学習方法を示す。
従来は図5Bに示すように、CNN111を用いる学習を行なう際には、学習用データをCNN111へ入力して出力されるデータと、学習用データに対して既知の出力データとを比較し、誤差が最小になるようにCNN111における畳み込み層及びプーリング層の構成と、重み係数等のパラメータとを更新する。学習結果を使用する場合には、更新された構成及びパラメータの情報を用いた学習済みCNN111に入力データを与えて出力データを得る。
変形例1では、図3A及び図3Bに示した出力の後段に、帯域フィルタ114として作用するように重みを設定した層を追加し、帯域フィルタ114からの出力までを含め全体としてCNNとして学習を行なう。前記重みの部分については変化させずに学習が行なわれる。具体的には、画像処理実行部101は、変換器112、CNN111、逆変換器113、及びフィルタ層を順に含んだ全体をCNNとして学習用データを入力し、帯域フィルタ114からの出力データを取得する。画像処理実行部101は、学習用データに対して既知の出力データに対しても帯域フィルタ114と同一のフィルタ処理を行ない、フィルタ処理後の出力データを取得する。画像処理実行部101は、フィルタ処理後の出力データを比較し、誤差が最小となるように変換器112、CNN111、逆変換器113、及び帯域フィルタ114までの重み等のパラメータを更新する。なお異なる帯域フィルタ114毎の出力(出力A,出力B,…,)と、対応する学習用データとの誤差夫々に対し、出力毎の係数を乗じ、係数を乗じた後の二乗誤差が最小になるように学習を行なう方法を使用することが望ましい。ここで係数は例えば、複数の帯域フィルタ114に対し設計により付与された優先度である。係数を乗じるタイミングは、帯域フィルタ114における周波数分解時であってもよい。そして画像処理実行部101は、学習済みCNN111を使用する際には帯域フィルタ114を用いずに逆変換器113からの出力を結果として得る。これにより、出力データの特性部分がより考慮された学習が可能となり、学習精度の向上が期待される。
図6は、帯域フィルタ114の内容例の1つを示す図である。帯域フィルタ114は例えば、Haar変換(Haarウェーブレット変換)である。帯域フィルタ114は4つのノード数を有し、夫々、2×2サイズのフィルタで左上画素を集約した分割画像(A)、左下画素を集約した分割画像(B)、右上画素を集約した分割画像(C)、右下画素を集約した分割画像(D)を夫々作成するフィルタである。帯域フィルタ114は更に、作成した分割画像をLL(低周波成分)、HL(縦(y )方向の高周波成分)、LH(横(x )方向の高周波成分)、HH(高周波成分)の各サンプルへ変換する。具体的には入力データ(画像データ)に以下の式(1)に示すようなフィルタを掛けて出力する。
Figure 0006476531
図7は、帯域フィルタ114の他の内容例を示す図である。帯域フィルタ114は図6に示すように例えば、JPEG2000の画像圧縮で使用されている 5/3離散ウェーブレット変換である。なおLLのサンプルを更にHH,HL,LH,LLの夫々の成分へ再帰的に分割して使用してもよい。図6に示したHaar変換と比較して4つの画素に分割していないが、式(2)に示すフィルタで実行される処理は実質的に同一である。4画素に分解した場合、畳み込み係数が3×3の行列になる。
Figure 0006476531
図7に示した内容の帯域フィルタ114を利用する場合も、図5に示したように、画像処理実行部101は、学習時に学習データを変換器112、CNN111、逆変換器113とその後段に設けられた帯域フィルタ114からの出力を取得し、学習データについて既知の分類結果(画像データ)についても同様に帯域フィルタ114を用いて出力を取得する。画像処理実行部101は、それらの出力の差分の誤差が最小となるように、変換器112、CNN111、逆変換器113の重み、パラメータ等を更新する処理を行なう。ここでも図5Aを参照して説明したように、図7における各周波数(LL、HL、LH、HH)についての各出力の誤差に対して係数(優先度)を乗じた結果を用いて、誤差が最小となるように学習を行なうとよい。なお学習済みCNNを用いる場合には、帯域フィルタ114は使用しない。
変形例1の帯域フィルタ114は、可逆的なフィルタであるが量子化処理を加えて不可逆な処理を行なうものであってもよい。ガボールフィルタを用いてもよい。
変形例1で示した帯域フィルタ114、及び逆変換器113は出力を単純に0〜1へ丸める処理を行なうものであってもよい。
(変形例2)
変形例1及び2にて示した出力データの後段の帯域フィルタ114は、変換器112よりも前段にて適用することも可能である。
図8は、変形例2における画像処理装置1の機能ブロック図である。図8に示すように変形例2における画像処理部11は、入力とCNN111の間で帯域フィルタ115として機能する。帯域フィルタ115は、特定の周波数を除去したり抽出したりするフィルタである。これにより、特定の周波数成分が除去されたデータがCNN111へ入力され、学習速度及び学習精度の向上が期待される。なお出力の後段に更に変形例1で示した帯域フィルタ114を設ける構成としてもよい。
図9は、帯域フィルタ115の内容を示す説明図である。図9に示すように帯域フィルタ115は、ウェーブレット変換又はガボール変換等の第1フィルタ、第1フィルタの出力が保持される出力層(メモリ)、空間変換フィルタ、分解された入力データを元と同様の次元に再構成する再構成フィルタとを含む。空間変換フィルタは変換器112と同じ構成であって入力チャンネル数は前段の出力層のチャンネル数と同一であってノード数が入力チャンネル数よりも多く、1×1の畳み込み層である。これにより、入力データは、固定の帯域フィルタによって帯域別に出力(分解)され、出力に対して変換器112と同様で変形を行なってフィルタリングを施し、再構成フィルタで元に戻した後、CNNに入力される。再構成フィルタは必須ではなく、分解されたままの入力データによって学習を行なってもよい。
帯域フィルタ115は、第1フィルタにおける重みを固定し、空間変換フィルタから先をCNNとして扱って学習を行なう。具体的には、画像処理実行部101は、帯域フィルタ115の一部(変換器112)、及びCNN111を順に含んだ全体をCNNとして学習用データを入力し、出力データを取得する。画像処理実行部101は、取得した出力データと、学習用データに対して既知の出力データとを比較し、誤差が最小となるように帯域フィルタ115の一部、及びCNN111における重み等のパラメータを更新する。そして画像処理実行部101は、学習済みCNN111を使用する際には帯域フィルタ115も含めて用いる。これにより、出力データの特性部分をより考慮した学習が可能となり、学習精度の向上が期待される
変形例2の例では特に、入力データとして画像データを用い、帯域フィルタの部分で画像圧縮の原理で周波数成分を丸めた画像とするか、又は空間変換の部分で丸めを実施するように構成してもよい。これにより、特定の周波数成分を丸めた画像をCNNへ入力することになり、この場合、視覚特性に合わせた画像認識の精度向上が見込まれる。
変形例1及び2では、帯域フィルタ114によって分割された出力について誤差を算出する構成としたが、これに限らず、帯域分割を行なわない出力(図5B)と併せて誤差を算出するようにしてもよい。また更には、帯域分割と異なる他の基準を用いた出力と併せて誤差を算出(評価)するようにしてもよい。
本実施の形態及び変形例1及び2では、図3で示したようなCNNを構成して実現されることとしたが、図3で示された構成を含む大規模なCNNの一部として機能してもよいことは勿論である。
なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 画像処理装置
10 制御部
101 画像処理実行部
11 画像処理部
111 CNN
112 変換器
113 逆変換器
1L CNNライブラリ
2L 変換器ライブラリ

Claims (20)

  1. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、
    前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換する第1の変換器、及び前記畳み込みニューラルネットワークから出力されるデータを非線形に空間変換する第2の変換器、又はいずれか一方を備え、
    前記第1の変換器又は第2の変換器は、前記畳み込みニューラルネットワークと共に学習されたパラメータを記憶している処理装置。
  2. 前記第1及び第2の変換器は、
    前記畳み込みニューラルネットワークへ入力する前記データのチャンネル数又は出力チャンネル数と同一数のノード数を有する入力層と、該入力層よりもノード数が多い畳み込み層又は緻密層である第2層と、該第2層よりもノード数が少ない畳み込み層又は緻密層である第3層とを含む
    請求項1に記載の処理装置。
  3. 前記第1の変換器は、
    学習用データを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと、前記学習用データに対応する第2出力データとの差分に基づき学習された前記第1の変換器におけるパラメータを記憶している
    請求項2に記載の処理装置。
  4. 前記第2の変換器は、
    学習用データを前記第1の変換器によって変換した後のデータ又は第1の変換器による変換を行なわずに前記畳み込みニューラルネットワークへ入力して得られる出力データを前記第2の変換器によって変換した後の第3出力データと、前記学習用データに対応する第4出力データとの差分に基づき学習された前記第2の変換器におけるパラメータを記憶している
    請求項2に記載の処理装置。
  5. 前記畳み込みニューラルネットワークから出力されるデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データを前記帯域フィルタへ入力して得られる第5出力データと、前記学習用データに対応する第2出力データを前記帯域フィルタへ入力して得られる第6出力データとの差分に基づき、前記第1の変換器、及び畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える請求項1に記載の処理装置。
  6. 前記畳み込みニューラルネットワークから出力されるデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記畳み込みニューラルネットワークへ入力して得られる出力データを前記帯域フィルタへ入力して得られる第11出力データと、前記学習用データに対応する第2出力データを前記帯域フィルタへ入力して得られる第12出力データとの差分に基づき、前記畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える請求項1に記載の処理装置。
  7. 前記第1の変換器へ入力するデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記帯域フィルタへ入力して得られるデータを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第7出力データと、前記学習用データに対応する第8出力データとの差分に基づき、前記第1の変換器、及び畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える請求項1に記載の処理装置。
  8. 前記データはマトリックス状に配列した画素値からなる画像データである
    請求項1からのいずれか一項に記載の処理装置。
  9. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、
    前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換する第1の変換器と、
    前記畳み込みニューラルネットワークから出力されるデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データを前記帯域フィルタへ入力して得られる第5出力データと、前記学習用データに対応する第2出力データを前記帯域フィルタへ入力して得られる第6出力データとの差分に基づき、前記第1の変換器、及び畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える処理装置。
  10. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、
    前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換する第1の変換器と、
    前記第1の変換器へ入力するデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記帯域フィルタへ入力して得られるデータを前記第1の変換器によって変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第7出力データと、前記学習用データに対応する第8出力データとの差分に基づき、前記第1の変換器、及び畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える処理装置。
  11. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、
    前記畳み込みニューラルネットワークへ入力するデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記帯域フィルタへ入力して得られるデータを前記畳み込みニューラルネットワークへ入力して得られる第9出力データと、前記学習用データに対応する第10出力データとの差分に基づき、前記畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える処理装置。
  12. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理装置であって、
    前記畳み込みニューラルネットワークから出力されるデータを周波数に応じて分解する帯域フィルタと、
    学習用データを前記畳み込みニューラルネットワークへ入力して得られる出力データを前記帯域フィルタへ入力して得られる第11出力データと、前記学習用データに対応する第2出力データを前記帯域フィルタへ入力して得られる第12出力データとの差分に基づき、前記畳み込みニューラルネットワークにおけるパラメータを学習する学習実行部と
    を備える処理装置。
  13. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理方法において、
    前記畳み込みニューラルネットワークと共に学習されたパラメータを記憶している変換器を用いて前記畳み込みニューラルネットワークへ入力するデータを非線形に空間変換し、
    空間変換後のデータを、前記畳み込みニューラルネットワークへ入力する
    処理方法。
  14. 前記空間変換は、
    学習用データを空間変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと、前記学習用データに対応する第2出力データとの差分に基づき学習された空間変換用のパラメータによって実行される
    請求項13の処理方法。
  15. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理方法において、
    前記畳み込みニューラルネットワークへ入力するデータを、学習用データを空間変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと前記学習用データに対応する第2出力データとの差分に基づき学習された空間変換用のパラメータによって非線形に空間変換し、
    空間変換後のデータを、前記畳み込みニューラルネットワークへ入力する
    処理方法。
  16. 畳み込み層を含む畳み込みニューラルネットワークにデータを入力し、前記畳み込みニューラルネットワークから出力を得る処理方法において、
    前記畳み込みニューラルネットワークから出力されるデータを取得し、
    取得されたデータを、前記畳み込みニューラルネットワークと共に学習されたパラメータを記憶している変換器を用いて非線形に空間変換して出力する
    処理方法。
  17. コンピュータに、
    畳み込み層を含む畳み込みニューラルネットワークへ入力するデータを受け付け、前記データを非線形に空間変換し、
    学習用データを空間変換した後のデータを前記畳み込みニューラルネットワークへ入力して得られる第1出力データと、前記学習用データに対応する第2出力データとの差分に基づき、空間変換及び前記畳み込みニューラルネットワークにおけるパラメータを学習する
    処理を実行させるコンピュータプログラム。
  18. コンピュータに、
    畳み込み層を含む畳み込みニューラルネットワークから出力されるデータを非線形に空間変換し、
    学習用データを前記畳み込みニューラルネットワークへ入力して得られる空間変換後の第3出力データと、前記学習用データに対応する第4出力データとの差分に基づき、前記畳み込みニューラルネットワーク及び空間変換におけるパラメータを学習する
    処理を実行させるコンピュータプログラム。
  19. 請求項1から12のいずれか1項に記載の処理装置、又は請求項17若しくは18に記載のコンピュータプログラムを実行するコンピュータ前記処理装置又はコンピュータへ入力データを送信し、前記処理装置又はコンピュータから出力されたデータを受信して利用する利用装置を備える処理システム。
  20. 前記利用装置は、テレビジョン受信機、表示装置、撮像装置、又は表示部及び通信部を備える情報処理装置である請求項19に記載の処理システム。
JP2018039896A 2018-03-06 2018-03-06 処理装置、処理方法、コンピュータプログラム及び処理システム Active JP6476531B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018039896A JP6476531B1 (ja) 2018-03-06 2018-03-06 処理装置、処理方法、コンピュータプログラム及び処理システム
PCT/JP2019/008653 WO2019172262A1 (ja) 2018-03-06 2019-03-05 処理装置、処理方法、コンピュータプログラム及び処理システム
US17/251,141 US20210374528A1 (en) 2018-03-06 2019-03-05 Processing device, processing method, computer program, and processing system
US17/301,455 US20210287041A1 (en) 2018-03-06 2021-04-02 Processing Device, Processing Method, Computer Program, And Processing System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018039896A JP6476531B1 (ja) 2018-03-06 2018-03-06 処理装置、処理方法、コンピュータプログラム及び処理システム

Publications (2)

Publication Number Publication Date
JP6476531B1 true JP6476531B1 (ja) 2019-03-06
JP2019153229A JP2019153229A (ja) 2019-09-12

Family

ID=65639088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018039896A Active JP6476531B1 (ja) 2018-03-06 2018-03-06 処理装置、処理方法、コンピュータプログラム及び処理システム

Country Status (3)

Country Link
US (1) US20210374528A1 (ja)
JP (1) JP6476531B1 (ja)
WO (1) WO2019172262A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114035120A (zh) * 2021-11-04 2022-02-11 合肥工业大学 基于改进cnn的三电平逆变器开路故障诊断方法及系统
JP7548634B2 (ja) 2021-12-10 2024-09-10 株式会社アクセル 情報処理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019214984A1 (de) * 2019-09-30 2021-04-01 Robert Bosch Gmbh Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors
JP7437918B2 (ja) * 2019-11-20 2024-02-26 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2023537864A (ja) * 2020-08-19 2023-09-06 メタ プラットフォームズ, インク. チャネル制約付きハードウェアアクセラレータによって実装されたニューラルネットワークを使用して画像強調を実行するためのシステムおよび方法
JP7421152B2 (ja) * 2020-11-04 2024-01-24 日本電信電話株式会社 学習方法、学習装置及びプログラム
US12505660B2 (en) * 2021-12-29 2025-12-23 Samsung Electronics Co., Ltd. Image processing method and apparatus using convolutional neural network

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0483471A (ja) * 1990-07-26 1992-03-17 Sharp Corp 色補正装置
JP6727642B2 (ja) * 2016-04-28 2020-07-22 株式会社朋栄 学習型アルゴリズムによるフォーカス補正処理方法
JP6598746B2 (ja) * 2016-08-22 2019-10-30 Kddi株式会社 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
CN109644230B (zh) * 2016-08-25 2020-10-30 佳能株式会社 图像处理方法、图像处理装置、图像拾取装置和存储介质
US20180185744A1 (en) * 2016-12-30 2018-07-05 Karthik Veeramani Computer Vision and Capabilities For Tabletop Gaming
US10929746B2 (en) * 2017-11-27 2021-02-23 Samsung Electronics Co., Ltd. Low-power hardware acceleration method and system for convolution neural network computation
US10719712B2 (en) * 2018-02-26 2020-07-21 Canon Kabushiki Kaisha Classify actions in video segments using play state information
US10719932B2 (en) * 2018-03-01 2020-07-21 Carl Zeiss Meditec, Inc. Identifying suspicious areas in ophthalmic data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114035120A (zh) * 2021-11-04 2022-02-11 合肥工业大学 基于改进cnn的三电平逆变器开路故障诊断方法及系统
JP7548634B2 (ja) 2021-12-10 2024-09-10 株式会社アクセル 情報処理装置

Also Published As

Publication number Publication date
WO2019172262A1 (ja) 2019-09-12
US20210374528A1 (en) 2021-12-02
JP2019153229A (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
JP6476531B1 (ja) 処理装置、処理方法、コンピュータプログラム及び処理システム
US12412243B2 (en) Image processing method and apparatus
CN109522902B (zh) 空-时特征表示的提取
JP7362297B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2019091459A1 (zh) 图像处理方法、处理装置和处理设备
WO2022134971A1 (zh) 一种降噪模型的训练方法及相关装置
JP5668105B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7353803B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN111369450A (zh) 去除摩尔纹的方法与装置
CN113658044A (zh) 提高图像分辨率的方法、系统、装置及存储介质
CN111462004B (zh) 图像增强方法和装置、计算机设备、存储介质
CN111106836A (zh) 图像重构方法和装置
CN114049491A (zh) 指纹分割模型训练、指纹分割方法、装置、设备及介质
CN117830154A (zh) 基于潜变量先验知识引导的视频去模糊方法、计算机设备、可读存储介质和程序产品
WO2021094463A1 (en) An imaging sensor, an image processing device and an image processing method
CN113436078B (zh) 一种自适用图像超分辨率重构方法及装置
CN120543878A (zh) 基于双域协同与渐进特征解耦的雨量场图像提取方法
CN113038134B (zh) 一种图片处理方法、智能终端及存储介质
US10846827B2 (en) Image processing device, image processing method, and storage medium
CN118279581A (zh) 一种实现降噪效果的黑色素瘤医学图像分割模型搭建方法
US20210287041A1 (en) Processing Device, Processing Method, Computer Program, And Processing System
JP7418019B2 (ja) 情報処理装置、情報処理装置における情報処理方法、及びプログラム
JP2023039499A (ja) 学習装置及び推論装置
CN111382764B (zh) 人脸识别或手势识别的神经网络模型建立方法、装置及计算机可读存储介质
CN119762347B (zh) 基于自适应光谱特征融合网络的多光谱图像超分辨率重建方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180328

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180601

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190118

R150 Certificate of patent or registration of utility model

Ref document number: 6476531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250