JP7659373B2 - 畳み込みニューラルネットワーク処理装置 - Google Patents
畳み込みニューラルネットワーク処理装置 Download PDFInfo
- Publication number
- JP7659373B2 JP7659373B2 JP2020118737A JP2020118737A JP7659373B2 JP 7659373 B2 JP7659373 B2 JP 7659373B2 JP 2020118737 A JP2020118737 A JP 2020118737A JP 2020118737 A JP2020118737 A JP 2020118737A JP 7659373 B2 JP7659373 B2 JP 7659373B2
- Authority
- JP
- Japan
- Prior art keywords
- processing
- data
- layer
- convolution
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
- G06T3/606—Rotation of whole images or parts thereof by memory addressing or mapping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Algebra (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Advance Control (AREA)
- Complex Calculations (AREA)
Description
複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうちのそれぞれを処理対象階層として順次選択する制御手段と、
前記処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルそれぞれのデータを、前記複数の演算手段のうちの対応する1つの演算手段に並列に入力して前記複数の演算手段が並列演算する第1の処理を行うか、前記データ保持手段に格納された前記処理対象階層における前記複数のチャネルのデータを順次読み出し、前記処理対象階層における1つのチャネルそれぞれのデータを前記複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する選択手段と、
を備え、前記第1の処理では前記複数の演算手段のうちの1つの演算手段によって前記処理対象階層の次の階層の1つのチャネルのデータに対応する値を計算し、
前記データ保持手段はメモリであり、
前記演算手段は乗算器と加算器とを備える演算コアを備え、
前記処理装置は前記メモリと前記演算コアとが設けられたチップを備え、
前記選択手段は、
前記演算コアへと入力されるデータの前記メモリ内のアドレスを指定する、前記チップに設けられたアドレス発行部を備えることを特徴とする。
本発明の一実施形態は、畳み込みニューラルネットワークにおける演算を行う処理装置に関する。まず、このような処理装置を利用して画像処理を行う画像処理装置について説明する。図3は、このような画像処理装置300の一構成例を示すブロック図である。
図2は、畳み込みニューラルネットワーク(以下、単にネットワークと呼ぶことがある)の構造の一例を示す。ネットワークは、複数の階層(レイヤ)を有しており、それぞれの階層には1以上のチャネルのデータ(例えば1以上の特徴画像)が存在する。そして、前階層のデータに対して所定の処理を行うことにより、後階層のデータが生成される。畳み込みニューラルネットワークにおいては、少なくとも1つの処理対象階層のデータに対して畳み込み処理を含む処理を行うことにより、処理対象階層の次の階層のデータが生成される。各階層のデータが画像に限られるわけではないが、以下では、畳み込みニューラルネットワークにおける演算が処理対象画像に対して行われる場合について説明する。この場合、ネットワークの中間にある処理対象階層におけるデータは、畳み込みニューラルネットワークにおける演算の過程で得られる特徴画像である。
以下で、本発明の一実施形態に係る処理装置の構成例について、図4を参照して説明する。図4の下側は、本発明の一実施形態に係る処理装置である、CNN処理部305の構成を示す。CNN処理部305は、制御部401、保持部402、特徴データ保持部403、係数保持部404、読み出し部405、畳み込み処理部406、後処理部407、及び結果保持部408を備える。
f(x)=
0(x<0)
x(x≧0) ……(3)
式(3)において、f(x)は活性化関数であり、xは入力データである。この例では活性化関数としてReLU(Rectified Linear Unit)を用いているが、活性化関数がReLUに限られるわけではない。例えば、活性化関数として他の非線形の関数、又は量子化関数を用いてもよい。また、後処理部407は、必要に応じて、ネットワーク構造情報に示される階層の情報に応じて、活性化処理の結果に基づいてプーリング処理を行うことで、出力特徴画像のサイズを調整してもよい。
本実施形態の構成によれば、複数枚の特徴画像を並列に処理することができる。以下に、図1のフローチャートに従う処理について、図5に示す例に従ってさらに説明する。図5は、図2に示す2つの階層(レイヤ2及びレイヤ3)の処理を行う様子を示す。ここでは、4枚の特徴画像を並列に処理する例について説明する。図5において、実線のブロックは各ステップにおける処理対象を示し、実線の矢印は各ステップで行われる畳み込み処理を示す。
CNN処理部305の構成は図4に示す構成に限られない。図10を参照して、CNN処理部305の別の構成例を説明する。この構成例においてCNN処理部305は、それぞれが複数の演算コア416のうちの1つに対応する、複数の特徴データ格納ユニット411を備える。上述のとおり、複数の演算コア416のそれぞれは、処理対象階層の1つのチャネルのデータと、処理対象階層に対応する係数と、を用いた積和演算を並列に行うことができる。この構成例に係るCNN処理部305は、演算コア416への入力を複数のソースから選択することができるマルチプレクサ(MUX)を備える。このようなMUXは、第1の処理と第2の処理とを切り替えることができる。MUXは、演算コア416とともに同じチップ上に設けられていてもよい。
実施形態1では、深さ方向の畳み込み処理を行わない場合に、共通の入力特徴画像が複数の畳み込みサブユニット410に並列に入力された。実施形態2では、深さ方向の畳み込み処理を行わない場合に、1枚の出力特徴画像を並列処理により生成するように、互いに異なる入力特徴画像が複数の畳み込みサブユニット410に並列に入力される。以下では、実施形態1とは異なる構成について説明する。実施形態1と同様の構成には同じ参照符号が付されており、説明は省略される。
本実施形態の構成によっても、複数枚の特徴画像を並列に処理することができる。以下に、図6のフローチャートに従う処理について、図9に示す例に従ってさらに説明する。図8は、図5と同様に、図2に示す2つの階層(レイヤ2及びレイヤ3)の処理を行う様子を示す。
CNN処理部305の構成は図6に示す構成に限られない。図11を参照して、CNN処理部305の別の構成例を説明する。この構成例においてCNN処理部305は、それぞれが複数の演算コア416のうちの1つに対応する、複数の結果格納ユニット415を備える。上述のとおり、複数の演算コア416のそれぞれは、処理対象階層の1つのチャネルのデータと、処理対象階層に対応する係数と、を用いた積和演算を並列に行うことができる。この構成例に係るCNN処理部305は、複数の演算コア416を用いて得られた複数の出力のうち1つを選択することができるマルチプレクサ(MUX)を備える。このようなMUXは、第1の処理と第2の処理とを切り替えることができる。MUXは、演算コア416とともに同じチップ上に設けられていてもよい。
上述の実施形態において、図1又は図6に示される各ステップは順番に処理された。しかしながら、パイプライン処理を行うことができるハードウェアを用いることにより、パイプライン処理により各実施形態に係る処理を行ってもよい。以下では、実施形態1に係る処理をパイプライン処理を用いて行う場合について、図12を参照して説明する。以下では、PEnum枚の出力特徴画像を並列に生成することができるハードウェアを用いる場合について説明する。また、簡略化のために入力特徴画像の枚数OC=2PEnumである場合について説明するが、入力特徴画像の数は特に限定されない。
上述の実施形態においては、特徴画像単位で畳み込み処理が行われた。例えば、実施形態1のステップS107では、特徴画像が特徴データ保持部403に転送された。しかしながら、データ転送及び畳み込み処理を特徴画像ごとに行う必要はない。例えば、ブロック単位の転送により特徴画像が複数回に分けて転送されてもよいし、畳み込み処理がブロック単位で行われてもよい。
IC:入力特徴画像の枚数
OC:出力特徴画像の枚数
IN×IM:入力ブロックサイズ(ビット)
ON×OM:出力ブロックサイズ(ビット)
X×Y:フィルタサイズ(ビット)
BWFM:特徴画像の転送帯域(ビット/時間)
BWW:重み係数の転送帯域(ビット/時間)
MACPE:畳み込み処理の演算器の積和演算処理の並列度
PEnum:畳み込み処理の演算器の個数
上述の実施形態では、階層毎に畳み込み処理の種類及びフィルタサイズが異なる例について説明した。一方で、1つの階層において用いられるフィルタ又は特徴データが複数のグループに分類され、グループ毎に畳み込み処理の種類及びフィルタサイズが異なっていてもよい。このような場合も、上述の実施形態に係る処理装置は、グループ毎に処理を切り替えることができる。すなわち、上述の実施形態において、処理対象階層における積和演算で用いられる特徴データ及びフィルタの重み係数が複数のグループに分類されていてもよい。この場合、処理対象階層の処理において、処理しようとするグループごとに第1の処理を行うか第2の処理を行うかを選択することができる。
Claims (16)
- 複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうちのそれぞれを処理対象階層として順次選択する制御手段と、
前記処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルそれぞれのデータを、前記複数の演算手段のうちの対応する1つの演算手段に並列に入力して前記複数の演算手段が並列演算する第1の処理を行うか、前記データ保持手段に格納された前記処理対象階層における前記複数のチャネルのデータを順次読み出し、前記処理対象階層における1つのチャネルそれぞれのデータを前記複数の演算手段のそれぞれに並列に入力する第2の処理を行うか、を選択する選択手段と、
を備え、前記第1の処理では前記複数の演算手段のうちの1つの演算手段によって前記処理対象階層の次の階層の1つのチャネルのデータに対応する値を計算し、
前記データ保持手段はメモリであり、
前記演算手段は乗算器と加算器とを備える演算コアを備え、
前記処理装置は前記メモリと前記演算コアとが設けられたチップを備え、
前記選択手段は、
前記演算コアへと入力されるデータの前記メモリ内のアドレスを指定する、前記チップに設けられたアドレス発行部を備えることを特徴とする処理装置。 - 前記第2の処理では、前記処理対象階層における前記複数のチャネルのそれぞれ1つについて、該1つのチャネルのデータを前記データ保持手段から前記複数の演算手段に並列に入力することを繰り返すことを特徴とする、請求項1に記載の処理装置。
- 前記第2の処理において、前記複数の演算手段のそれぞれは、順次入力された前記処理対象階層におけるそれぞれのチャネルのデータを用いて、前記処理対象階層の次の階層における1つのチャネルに対応する演算結果を出力することを特徴とする、請求項2に記載の処理装置。
- 複数のデータ格納手段をさらに備え、
前記第1の処理において、前記複数のデータ格納手段のそれぞれは、前記複数の演算手段のうちの対応する1つの演算手段に、前記処理対象階層における対応する1つのチャネルのデータを供給し、前記複数のデータ格納手段のそれぞれは前記複数の演算手段のうちの異なる1つの演算手段に対応し、
前記第2の処理において、前記複数のデータ格納手段のうちの1つのデータ格納手段は、前記複数の演算手段のそれぞれに、前記処理対象階層における共通の前記1つのチャネルのデータを供給する
ことを特徴とする、請求項1から3のいずれか1項に記載の処理装置。 - 複数の階層を有する畳み込みニューラルネットワークにおける演算を行う処理装置であって、
前記複数の階層のうちのそれぞれを処理対象階層として順次選択する制御手段と、
前記処理対象階層における複数のチャネルのデータの少なくとも一部を保持するデータ保持手段と、
それぞれが、前記処理対象階層の1つのチャネルのデータと、前記処理対象階層に対応する係数と、を用いた積和演算を並列に行う、複数の演算手段と、
前記複数の演算手段のそれぞれによる演算結果を累積する累積手段と、
前記処理対象階層における処理を特定する情報に基づいて、前記データ保持手段に格納された前記処理対象階層における1つのチャネルそれぞれのデータを、前記複数の演算手段のうちの対応する1つの演算手段に並列に入力して前記複数の演算手段が並列演算し、前記複数の演算手段のうちの1つの演算手段それぞれによる演算結果を前記処理対象階層の次の階層における対応する1つのチャネルの入力データとして出力する第1の処理を行うか、前記累積手段により得られた累積された演算結果を前記次の階層における1つのチャネルの入力データとして出力する第2の処理を行うか、を選択する選択手段と、
を備え、前記第1の処理では前記複数の演算手段のうちの1つの演算手段によって前記処理対象階層の次の階層の1つのチャネルのデータに対応する値を計算し、
前記データ保持手段はメモリであり、
前記演算手段は乗算器と加算器とを備える演算コアを備え、
前記処理装置は前記メモリと前記演算コアとが設けられたチップを備え、
前記選択手段は、
前記演算コアへと入力されるデータの前記メモリ内のアドレスを指定する、前記チップに設けられたアドレス発行部を備えることを特徴とする処理装置。 - 前記第2の処理では、1つのチャネルのデータが対応する1つの前記演算手段に入力されるように、前記データ保持手段に格納された前記処理対象階層における複数のチャネルのデータが前記複数の演算手段に並列に入力される、請求項5に記載の処理装置。
- それぞれが前記複数の演算手段のうちの1つに対応する、複数の結果格納手段をさらに備え、
前記第1の処理において、前記複数の演算手段のそれぞれは、対応する前記結果格納手段に前記演算結果を出力し、
前記第2の処理において、前記複数の演算手段のそれぞれは、前記累積手段に前記演算結果を出力し、前記累積手段は、前記累積の結果を前記複数の結果格納手段のうちの1つに出力する
ことを特徴とする、請求項5又は6に記載の処理装置。 - 前記第1の処理では、1つのチャネルのデータが対応する1つの前記演算手段に入力されるように、前記データ保持手段に格納された前記処理対象階層における複数のチャネルのデータが前記複数の演算手段に並列に入力される、請求項1から7のいずれか1項に記載の処理装置。
- 前記第1の処理において、前記複数の演算手段のそれぞれは、前記処理対象階層における1つのチャネルのデータを用いて、前記処理対象階層の次の階層における1つのチャネルに対応する演算結果を出力することを特徴とする、請求項1から8のいずれか1項に記載の処理装置。
- 前記処理対象階層における積和演算に用いる係数の少なくとも一部を保持する係数保持手段と、
前記データ保持手段及び前記係数保持手段から前記複数の演算手段へのデータ供給を制御する供給制御手段と、をさらに備え、
前記複数の演算手段のそれぞれは、入力された1つの前記データと1つの前記係数との積を算出し、算出された積を累計することにより、前記積和演算を行う
ことを特徴とする、請求項1から9のいずれか1項に記載の処理装置。 - 前記処理対象階層における積和演算で用いられる前記データ及び前記係数が複数のグループに分類されており、
前記選択手段は、積和演算に用いる前記データ及び前記係数の前記グループに基づいて、前記第1の処理を行うか、前記第2の処理を行うか、を選択することを特徴とする、請求項1から10のいずれか1項に記載の処理装置。 - 前記係数は畳み込み処理に用いるフィルタの重み係数であり、前記フィルタのサイズは前記階層ごとに設定可能であることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
- 前記係数は拡張畳み込み処理に用いるフィルタの重み係数であることを特徴とする、請求項1から11のいずれか1項に記載の処理装置。
- 前記選択手段は、
前記演算コアへの入力を複数のソースから選択する、若しくは複数の前記演算コアからの出力のうち1つの出力を選択する、前記チップに設けられたマルチプレクサを備える
ことを特徴とする、請求項1から13のいずれか1項に記載の処理装置。 - 前記畳み込みニューラルネットワークに従う演算は処理対象画像に対して行われ、
前記処理対象階層におけるデータは、前記畳み込みニューラルネットワークに従う演算の過程で得られる特徴画像である
ことを特徴とする、請求項1から14のいずれか1項に記載の処理装置。 - 前記処理対象画像に対して前記畳み込みニューラルネットワークに従う演算を行うように、前記複数の演算手段を制御する制御手段と、
前記処理対象画像に対して前記畳み込みニューラルネットワークに従う演算を行うことにより得られた処理結果に基づいて、前記処理対象画像に対する画像処理を行う画像処理手段と、
をさらに備えることを特徴とする、請求項15に記載の処理装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020118737A JP7659373B2 (ja) | 2020-07-09 | 2020-07-09 | 畳み込みニューラルネットワーク処理装置 |
| EP21180760.7A EP3940603A1 (en) | 2020-07-09 | 2021-06-22 | Processing apparatus for performing pointwise convolutions and depthwise convolutions |
| US17/353,959 US11900577B2 (en) | 2020-07-09 | 2021-06-22 | Processing apparatus for performing processing using a convolutional neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020118737A JP7659373B2 (ja) | 2020-07-09 | 2020-07-09 | 畳み込みニューラルネットワーク処理装置 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2022022876A JP2022022876A (ja) | 2022-02-07 |
| JP2022022876A5 JP2022022876A5 (ja) | 2023-07-12 |
| JP7659373B2 true JP7659373B2 (ja) | 2025-04-09 |
Family
ID=76553571
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020118737A Active JP7659373B2 (ja) | 2020-07-09 | 2020-07-09 | 畳み込みニューラルネットワーク処理装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11900577B2 (ja) |
| EP (1) | EP3940603A1 (ja) |
| JP (1) | JP7659373B2 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7165018B2 (ja) * | 2018-10-03 | 2022-11-02 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
| US11562220B2 (en) * | 2021-04-14 | 2023-01-24 | Deepx Co., Ltd. | Neural processing unit capable of reusing data and method thereof |
| US20230179179A1 (en) * | 2021-12-02 | 2023-06-08 | Rohde & Schwarz Gmbh & Co. Kg | Digital filter circuit |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020027399A (ja) | 2018-08-10 | 2020-02-20 | 株式会社日立製作所 | 計算機システム |
| JP2020071862A (ja) | 2018-10-31 | 2020-05-07 | 株式会社東芝 | コンピュータビジョンシステム及び方法 |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4891197B2 (ja) | 2007-11-01 | 2012-03-07 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
| JP6102645B2 (ja) * | 2013-09-11 | 2017-03-29 | 富士通株式会社 | 積和演算回路及び積和演算システム |
| US10268881B2 (en) | 2015-09-30 | 2019-04-23 | Canon Kabushiki Kaisha | Pattern classifying apparatus, information processing apparatus, pattern classifying method, and non-transitory computer readable storage medium |
| JP6700712B2 (ja) | 2015-10-21 | 2020-05-27 | キヤノン株式会社 | 畳み込み演算装置 |
| GB201607713D0 (en) | 2016-05-03 | 2016-06-15 | Imagination Tech Ltd | Convolutional neural network |
| US10360470B2 (en) | 2016-10-10 | 2019-07-23 | Gyrfalcon Technology Inc. | Implementation of MobileNet in a CNN based digital integrated circuit |
| WO2018103736A1 (en) | 2016-12-09 | 2018-06-14 | Beijing Horizon Information Technology Co., Ltd. | Systems and methods for data management |
| WO2018121472A1 (zh) * | 2016-12-28 | 2018-07-05 | 上海寒武纪信息科技有限公司 | 一种运算方法 |
| JP2018156266A (ja) * | 2017-03-16 | 2018-10-04 | 富士通株式会社 | 演算器および演算器の制御方法 |
| JP7053995B2 (ja) * | 2018-04-16 | 2022-04-13 | 富士通株式会社 | 最適化装置及び最適化装置の制御方法 |
| JP7345262B2 (ja) | 2019-03-11 | 2023-09-15 | キヤノン株式会社 | データ圧縮装置、データ処理装置、データ圧縮方法、プログラム、及び学習済みモデル |
| WO2020230374A1 (ja) * | 2019-05-10 | 2020-11-19 | ソニー株式会社 | 演算装置および演算システム |
| JP7402623B2 (ja) * | 2019-06-17 | 2023-12-21 | キヤノン株式会社 | フィルタ処理装置及びその制御方法 |
| JP7008221B2 (ja) * | 2019-12-27 | 2022-01-25 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置およびプログラム |
| JP7530187B2 (ja) * | 2020-03-11 | 2024-08-07 | キヤノン株式会社 | データ処理装置、データ処理方法 |
| US11954830B2 (en) * | 2020-12-17 | 2024-04-09 | Nvidia Corporation | High dynamic range support for legacy applications |
| CN114677258A (zh) * | 2020-12-24 | 2022-06-28 | 英特尔公司 | 用于视觉渲染和合成的空间稀疏卷积模块的方法和设备 |
| GB2602997B (en) * | 2021-01-25 | 2023-03-01 | Imagination Tech Ltd | Implementing dilated convolution in hardware |
| US11562220B2 (en) * | 2021-04-14 | 2023-01-24 | Deepx Co., Ltd. | Neural processing unit capable of reusing data and method thereof |
-
2020
- 2020-07-09 JP JP2020118737A patent/JP7659373B2/ja active Active
-
2021
- 2021-06-22 US US17/353,959 patent/US11900577B2/en active Active
- 2021-06-22 EP EP21180760.7A patent/EP3940603A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020027399A (ja) | 2018-08-10 | 2020-02-20 | 株式会社日立製作所 | 計算機システム |
| JP2020071862A (ja) | 2018-10-31 | 2020-05-07 | 株式会社東芝 | コンピュータビジョンシステム及び方法 |
Non-Patent Citations (3)
| Title |
|---|
| LIU, Bing,An FPGA-Based CNN Accelerator Integrating Depthwise Separable Convolution,[online],スイス,MDPI,2019年03月,pages:1-18,[令和6年3月29日検索],インターネット<URL:https://www.researchgate.net/publication/331495042_An_FPGA-Based_CNN_Accelerator_Integrating_Depthwise_Separable_Convolution> |
| YU, Yunxuan et al.,Light-OPU: An FPGA-based overlay processor for lightweight convolutional neural networks,Proceedings of the 2020 ACM/SIGDA International Symposium on Field -programmable Gate Arrays,米国,ACM,2020年02月24日,pages:122-132 |
| 倉持 亮佑 他,アンサンブル学習を用いたスパースCNNのFPGA実装に関して,電子情報通信学会技術研究報告,一般社団法人電子情報通信学会,2020年01月22日,第119巻 第373号,第67頁-第72頁 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20220012856A1 (en) | 2022-01-13 |
| US11900577B2 (en) | 2024-02-13 |
| JP2022022876A (ja) | 2022-02-07 |
| EP3940603A1 (en) | 2022-01-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6900487B2 (ja) | ハードウェアにおける平均プーリングの実行 | |
| JP7325158B2 (ja) | ニューラル・ネットワーク・コアにおける動的精度のためのデータ表現 | |
| JP7659373B2 (ja) | 畳み込みニューラルネットワーク処理装置 | |
| JP7414930B2 (ja) | 情報処理装置、情報処理方法 | |
| KR102811260B1 (ko) | 심층 신경망의 가중치에 대한 밸런싱된 프루닝을 제공하는 시스템 및 방법 | |
| JP7402623B2 (ja) | フィルタ処理装置及びその制御方法 | |
| JP6567381B2 (ja) | 演算装置、方法及びプログラム | |
| JP7352684B2 (ja) | フィルタ処理装置およびその制御方法 | |
| JP7700142B2 (ja) | 機械学習アクセラレータの電力削減 | |
| CN116501325A (zh) | 一种算子的处理方法及计算机设备 | |
| KR20220083820A (ko) | 뉴럴 네트워크 프로세서에서의 3차원 콘볼루션 | |
| WO2023006170A1 (en) | Devices and methods for providing computationally efficient neural networks | |
| JP2023073824A (ja) | 演算装置、情報処理方法、及びプログラム | |
| JP2021144428A (ja) | データ処理装置、データ処理方法 | |
| JP7169768B2 (ja) | 画像処理装置、画像処理方法 | |
| Wang et al. | A fast and efficient FPGA-based pose estimation solution for IoT applications | |
| US20220309778A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
| CN111179175A (zh) | 基于卷积神经网络的图像处理方法、装置及存储介质 | |
| CN112381734A (zh) | 二维导向滤波方法、二维导向滤波器及系统 | |
| JP2025089119A (ja) | 処理装置 | |
| JP2025038769A (ja) | 情報処理装置、処理方法、及び、プログラム | |
| KR20230059718A (ko) | 심층 신경망 연산을 수행하는 방법 및 전자 장치 | |
| HK40071058A (en) | Method and hardware circuit for performing average pooling in hardware | |
| JPH11306346A (ja) | 空間フィルタリング方法及び空間フィルタ装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230704 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240405 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240531 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240902 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241128 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20241210 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250228 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250328 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7659373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |