CN112200300B - 卷积神经网络运算方法及装置 - Google Patents
卷积神经网络运算方法及装置 Download PDFInfo
- Publication number
- CN112200300B CN112200300B CN202010967566.7A CN202010967566A CN112200300B CN 112200300 B CN112200300 B CN 112200300B CN 202010967566 A CN202010967566 A CN 202010967566A CN 112200300 B CN112200300 B CN 112200300B
- Authority
- CN
- China
- Prior art keywords
- target
- multiply
- data
- convolution
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/5443—Sum of products
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/22—Arrangements for sorting or merging computer data on continuous record carriers, e.g. tape, drum, disc
- G06F7/32—Merging, i.e. combining data contained in ordered sequence on at least two record carriers to produce a single carrier or set of carriers having all the original data in the ordered sequence merging methods in general
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/50—Adding; Subtracting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/52—Multiplying; Dividing
- G06F7/523—Multiplying only
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2207/00—Indexing scheme relating to methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F2207/38—Indexing scheme relating to groups G06F7/38 - G06F7/575
- G06F2207/48—Indexing scheme relating to groups G06F7/48 - G06F7/575
- G06F2207/4802—Special implementations
- G06F2207/4818—Threshold devices
- G06F2207/4824—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Optimization (AREA)
- Evolutionary Computation (AREA)
- Neurology (AREA)
- Computer Hardware Design (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种卷积神经网络运算装置,其包含一调度模式单元、一第一数据处理单元、一第二数据处理单元、及一乘累加运算阵列。调度模式单元根据目标卷积核的数量及一第一尺寸信息确定一目标调度模式。第一数据处理单元根据目标调度模式,对目标卷积核中的权重数据进行重组。第二数据处理单元根据目标调度模式,对目标卷积层中的输入数据进行重组。乘累加运算阵列包含多个乘累加运算单元,其基于重组后权重数据和重组后输入数据进行乘累加运算。基于此,实现动态地调整目标调度模式,使得每一个卷积层可以采用与其乘累加运算阵列算力匹配的调度模式,提高了硬件加速器的资源利用率。
Description
技术领域
本申请涉数据处理技术领域,具体涉及一种卷积神经网络运算方法及装置。
背景技术
深度学习(Deep learning)是开展AI(Artificial intelligence,人工智能)的重要应用技术之一,其广泛应用于计算机视觉、语音识别等领域。其中CNN(ConvolutionalNeural Network,卷积神经网络)则是近年来引起重视的一种深度学习高效识别技术,它通过直接输入原始图像或语音数据,与多个特征滤波器(filter)数据进行若干层的卷积运算及矢量运算,从而在图像和语音识别方面产生高准确性结果。
然而,随着卷积神经网络的发展和广泛应用,其面临的挑战也越来越多,例如,CNN模型的参数规模越来越大,并且网络结构复杂多变,一个CNN模型中往往包含多个卷积层,并且每一卷积层的深度以及卷积核的尺寸等数据都不相同。其中,在CNN网络中较浅的层中,待处理输入数据的平面尺寸可能会较大、通道方向上的尺寸会较小,而随着网络层数的深入,一些卷积核在通道方向上的深度会较大,或者卷积层中卷积核的数量会较多。那么,对于电子设备中由多个MAC(Multiply Accumulation Cell,乘累加运算单元)组成的乘累加运算阵列来说,就会面对庞大需计算的数据量。而电子设备提供的算力往往是有限的,也就是说,乘累加运算阵列的一轮运算中,能够输入的最大数据量是固定的。例如,电子设备的乘累加运算阵列包含多个乘累加运算单元的算力为256,则该乘累加运算阵列具有256个乘法器,即同时最多能够进行256个权重值分别与对应的256个输入数据值进行乘法运算。而一般输入数据是远大于256的,因此,需要分别将卷积核和输入数据拆分为多个数据块,进行逐一运算。然而,先前技术中针对不同的卷积层是以相同的方式来拆分卷积核和输入数据,这样的作法无法有效利用电子设备中的硬件资源,基于此,如何提高硬件加速器在计算过程中的资源利用率成为亟待解决的问题。
发明内容
本申请提供一种卷积神经网络运算方法及装置,旨在提高硬件加速器的资源利用率。
本申请提供一种卷积神经网络运算方法,其应用于包含乘累加运算阵列的卷积神经网络运算装置,乘累加运算阵列包含多个乘累加运算单元。本申请的卷积神经网络运算方法包括:确定一目标卷积层中的目标卷积核的数量,及所述目标卷积核的一第一尺寸信息;根据所述目标卷积核的数量和所述第一尺寸信息确定一目标调度模式,其中,所述目标调度模式对应一卷积计算块的大小;根据所述目标调度模式,对所述目标卷积核中的权重数据进行重组,并将重组后所述权重数据输出至所述乘累加运算阵列;根据所述目标调度模式,对所述目标卷积层中的输入数据进行重组,并将重组后所述输入数据输出至所述乘累加运算阵列;以及,以所述乘累加运算阵列基于重组后所述权重数据和重组后所述输入数据进行乘累加运算,其中,所述乘累加运算阵列每轮运算中所使用的所述乘累加运算单元的数目对应所述卷积计算块的大小。
本申请另提供一种卷积神经网络运算装置,其包含一调度模式单元、一第一数据处理单元、一第二数据处理单元、及一乘累加运算阵列。调度模式单元根据所述目标卷积核的数量及一第一尺寸信息确定一目标调度模式,其中,所述目标调度模式对应一卷积计算块的大小。第一数据处理单元根据所述目标调度模式,对所述目标卷积核中的权重数据进行重组。第二数据处理单元根据所述目标调度模式,对所述目标卷积层中的输入数据进行重组。乘累加运算阵列包含多个乘累加运算单元,其基于重组后所述权重数据和重组后所述输入数据进行乘累加运算,其中,所述乘累加运算阵列每轮运算中所使用的所述乘累加运算单元的数目对应所述卷积计算块的大小。
本申请实施例提供的卷积神经网络的运算方案,对于卷积神经网络中具有不同网络结构的各个卷积层来说,可以动态地调整目标调度模式,使得每一个卷积层可以采用与其乘累加运算阵列结构匹配的调度模式,来对待处理输入数据和目标卷积核进行数据块的拆分,使得拆分后的权重数据块中包含的权重值和输入数据块中包含的输入数据的数量能够实现对乘累加运算阵列的运算资源的最大化利用,从整体上提高了硬件加速器的资源利用率,进而提高卷积神经网络的运算速度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的卷积神经网络的运算方法的流程示意图。
图2为一卷积层的输入数据及卷积核的数据结构示意图。
图3为一实施例中对卷积层的输入数据及卷积核的数据拆分示意图。
图4是本申请实施例提供的卷积神经网络运算装置应用于电子设备的方块示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。其中相同的组件符号代表相同的组件,本发明的原理是以实施在一适当的应用环境中来举例说明。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例提供一种卷积神经网络的运算方法,该卷积神经网络的运算方法的执行主体可以是本申请实施例提供的卷积神经网络运算装置,或者集成了该卷积神经网络的运算装置的电子设备,实施上,卷积神经网络的运算装置可以采用硬件、软件或硬件结合软件的方式实现。
本申请实施例提供的卷积神经网络的运算方案,可以应用于任何结构的卷积神经网络(以下简称CNN),例如,可以应用于只有一个卷积层的CNN,还可以应用于一些复杂CNN,比如包括多达上百或者更多的卷积层的CNN。此外,本申请实施例中的CNN还可以有池化层、全连接层等。也就是说,本申请实施例的方案并不局限于某种特定的卷积神经网络,只要是包含有卷积层的神经网络,都可以认为是本申请中的“卷积神经网络”,其卷积层部分都可以按照本申请实施例进行运算。
需要说明的是,本申请实施例的卷积神经网络可以应用于多种场景,例如,诸如人脸识别、车牌识别等图像识别的领域,诸如图像特征提取、语音特征提取的特征领域,语音识别领域,自然语言处理领域等,将图像或者由其他形式的数据转换得到的特征数据输入到预先训练好的卷积神经网络,即可利用该卷积神经网络进行运算,以达到或分类或识别或特征提取的目的。
请参阅图1,图1是本申请实施例提供的卷积神经网络运算方法的流程示意图。图4是本申请实施例提供的卷积神经网络运算装置应用于电子设备的方块示意图。卷积神经网络运算装置40可用以实现图1中的卷积神经网络运算方法。卷积神经网络运算方法的具体步骤及卷积神经网络运算装置40的操作方式说明如下。
步骤101中、确定一目标卷积层中的目标卷积核的数量,以及所述目标卷积核的一第一尺寸信息。
对于集成有卷积神经网络运算装置的电子设备来说,卷积层对输入数据和卷积核数据进行卷积运算,得到输出数据。输入数据可以是原始的图像、语音数据或者上一卷积层或池化层输出的数据,而卷积神经网络运算装置中输入数据一般为特征数据,因此,卷积神经网络运算装置40的输入数据可为目标卷积层的特征数据。
输入数据可以有多个通道(channel),每一个通道上的输入数据可以理解为一个二维数据,当输入数据的通道数大于1时,可以将输入数据理解为多个通道的二维数据叠在一起的立体数据,其深度等于通道数。目标卷积层(即当下待进行卷积运算的卷积层)可以包含有一个或者多个卷积核,卷积核又称为过滤器(filter),每一卷积核的通道数等于该层输入数据的通道数,卷积核数据的个数等于该目标卷积层的输出数据的通道数。也就是说,输入数据与一个卷积核数据进行卷积运算后,得到一个二维的数据,当目标卷积层有多个卷积核时,每一个卷积核输出的二位数据叠加得到一个三维的输出数据。
在基于卷积神经网络进行运算时,模式调度单元401从当前用于运算的卷积神经网络中确定出目标卷积层,实施上,模式调度单元401可自配置寄存器405取得目标卷积层的相关讯息,例如自配置寄存器405得知何者为目标卷积层及其具有的卷积核数量及卷积核的平面尺寸及通道方向上的深度等讯息。
请参阅图2,图2为一卷积层的输入数据及卷积核的数据结构示意图。图2的卷积层中包含M个卷积核,分别为K1、K2、K3……KM。这M个卷积核的尺寸相同,均为D×R×S,如图所示,D为代表卷积核在通道方向上的深度,R×S为代表卷积核在平面方向上的尺寸。输入数据的尺寸为C×W×H,其中,C为代表输入数据在通道方向上的深度。实施上,C=D。而W×H为代表输入数据在平面方向上的尺寸。
由于每个卷积层中卷积核的尺寸和数量可能都不相同,本申请实施例中,在开始对目标卷积层进行运算时,先确定该目标卷积层中的目标卷积核的数量,以及目标卷积核的尺寸及/或深度信息。
步骤102中、根据所述目标卷积核的数量和所述第一尺寸信息确定一目标调度模式,其中,所述目标调度模式对应一卷积计算块的大小。
在乘累加运算阵列中乘累加运算单元的数量是有限的情况下,而卷积层中的参数量(例如卷积核的数据量)巨大,对于一个卷积层来说,可能需要乘累加运算阵列的多轮运算才能完成全部运算,因此,需要分别将卷积核和输入数据拆分为多个数据块,每一次将一定数量的权重数据块和对应数量的输入数据块输入到乘累加运算阵列中,然后进行乘累加运算。为有效利用乘累加运算阵列404的运算资源,模式调度单元401可根据目标卷积核的数量及其相关的尺寸讯息确定一目标调度模式,实施上,模式调度单元401可根据目标卷积核的数量及其相关的尺寸讯息自多个预设的调度模式中选出目标调度模式,而每一调度模式对应一特定的卷积计算块的大小,卷积计算块为进行卷积运算的最小单位,模式调度单元401所选出的目标调度模式可最有效的利用乘累加运算阵列404,例如,当卷积神经网络运算装置40操作在目标调度模式下,乘累加运算阵列可以最少运算轮数完成对输入数据及目标卷积核的乘累加运算。
在一实施例中,调度模式所对应的卷积计算块的大小可为乘累加运算阵列的一轮运算中从m个目标卷积核中获取m个大小为d×w×h的权重数据块的数据块的大小,其中,d为代表权重数据块在通道方向上的深度,w×h为代表权重数据块在平面方向上的尺寸,其中,m、d,w,h皆为正整数。在设置预设调度模式时,可视为在设置m、d、w、h的具体数值,需要综合考虑各种因素。
首先,需要考虑电子设备的乘累加运算阵列404的算力,即需要考虑乘累加运算阵列404中乘累加单元的数量,比如,乘累加运算阵列404中一共有256个乘累加单元,则一轮运算中最多可以同时进行256个乘累加单元运算。因此,在乘累加运算阵列的一轮运算中分别从m个目标卷积核中获取m个大小为d×w×h的权重数据块时,m、d、w、h的大小需要满足:m×d×w×h≤256。
其次,还要考虑实际网络的需要,比如,卷积层中卷积核的尺寸和数量,比如,有的卷积核的大小为1×1×64,有的卷积核大小为11×11×3,有的卷积层可能有8个卷积核,有的卷积层可能2048个卷积核。在综合考虑上述参数后,设置了不同大小的卷积计算块,以适应不同的网络层。
比如,在乘累加运算单元的算力固定的前提下,即在m×d×w×h≤256的条件下,当卷积层的卷积核数量较多、深度较小时,可以将m的值设置的大一些,d的值设置的小一些,比如,m=64,d=4,w=1,h=1,或者m=16,d=16,w=1,h=1。反之,当卷积层的卷积核数量较少、深度较大时,可以将m的值设置的较小一些,d的值设置的较大一些,比如,m=4,d=64,w=1,h=1。或者,对于一些特别尺寸的卷积核,还可以做一些特别的设置,比如,对于3×3的卷积核,可以设置m=1,d=32,w=3,h=3,这种情况下,虽然不能百分之百的利用乘累加运算单元的计算资源,但是也达到了较高的利用率。请再参阅图2,图2的卷积层中包含M个卷积核,此例中m较佳为的M的正因子,也就是说,M为m的整数倍。
实施上,可针对各种卷积层的卷积核数量及尺寸预先评估最适合的卷积计算块的大小,再据以预先设置多种预设调度模式,并于一存储器中建立一查找表,此查找表包含卷积核的参数与预设调度模式之间的映像关系。模式调度单元401可根据目标卷积核的数量及其相关的尺寸讯息自查找表查得目标调度模式。在一实施例中,模式调度单元401可由一处理器执行程序代码来实现,而目标卷积层的输入数据的数据量讯息及卷积核的数量及尺寸等讯息是储存于配置寄存器405中,模式调度单元401自配置寄存器405中获得目标卷积核的数量及其相关的尺寸讯息。
如图4所示,卷积神经网络运算装置40在进行卷积运算的过程中,是经由缓存409自存储器407中取得每一轮运算所需要的权重值和输入数据,而乘累加运算阵列404运算过程中产生的中间结果是暂存于缓存406中。对于电子设备来说,分配给卷积运算所使用的存储空间是有限的,基于上述原因,在预先设置调度模式时,除了考虑网络结构之外,还需要考虑使用这种调度模式运算时,对存储空间的占用情况,以设置合适的调度模式。因此,在一实施例中,模式调度单元401亦会根据缓存409及/或缓存406的大小来确定目标调度模式。
步骤103中、根据目标调度模式,对目标卷积核中的权重数据进行重组,并将重组后的权重数据输出至乘累加运算阵列。
目标调度模式确定之后,权重数据处理单元402根据目标调度模式对目标卷积核中的权重数据进行拆分及适当的数据重组,使重组后的权重数据得以适当的顺序输入到乘累加运算阵列404,而乘累加运算阵列404可完成所需的卷积运算。
实施上,目标卷积核中的权重数据可储存于存储器407中,权重数据处理单元402可经由缓存409在直接存储器访问(Direct Memory Access,DMA)控制器的控制下,自存储器407读取权重数据。
一实施例中,针对每一调度模式,权重数据处理单元402配置有一对应的权重数据读取及重组的操作设定,当目标调度模式确定后,权重数据处理单元402根据目标调度模式以对应的操作设定读取及重组目标卷积核中的权重数据。实施上,权重数据处理单元402可藉由将目标卷积核中的权重数据以原始顺序写入一缓存中,再以所需的顺序自缓存中将权重数据读出,实现对权重数据重组及重排序的目的。
请参阅图3,图3为一实施例中对卷积层的输入数据及卷积核的数据拆分示意图。在确定出目标调度模式后,假设该目标调度模式对应的卷积计算块的尺寸为m×d×w×h,也就是说,在乘累加运算阵列的一轮运算中,权重数据处理单元402从目标卷积核读取m个尺寸为d×w×h的权重数据块,将经重组后权重数据的输入至乘累加运算阵列404。详细来说,权重数据处理单元402分别从K1、K2、……、Km这m个卷积核中获取m个权重数据块,其中,每一个权重数据块在通道方向上的深度为d,在平面上的尺寸为w×h。
步骤104、根据目标调度模式,对目标卷积层中的输入数据进行重组,并将重组后的输入数据输出至乘累加运算阵列。
目标调度模式确定之后,特征数据处理单元403根据目标调度模式对目标卷积层中的输入数据进行拆分及适当的数据重组,使重组后的输入数据得以匹配对应的权重数据块的顺序输入到乘累加运算阵列404,以完成所需的卷积运算。
实施上,目标卷积层中的输入数据可储存于存储器407中,特征数据处理单元403可经由缓存409在直接存储器访问控制器的控制下,自存储器407读取输入数据。
类似地,针对每一调度模式,特征数据处理单元403配置有一对应的输入数据读取及重组的操作设定,当目标调度模式确定后,特征数据处理单元403根据目标调度模式以对应的操作设定读取及重组目标卷积层中的输入数据。实施上,特征数据处理单元403亦可藉由将目标卷积层中的输入数据以原始顺序写入一缓存中,再以所需的顺序自缓存中将输入数据读出,例如以匹配对应的权重数据块的数据顺序自缓存中将输入数据读出,实现对输入数据重组及重排序的目的。
请再参阅图3,在图3的实施例中特征数据处理单元403将目标卷积层中的输入数据拆分为多个尺寸为d×w×h的输入数据块,并对每一输入数据块进行数据重组,使重组后输入数据块的数据顺序能匹配对应的权重数据块,使乘累加运算阵列404得以据以完成正确的乘累加运算。
步骤105、基于重组后权重数据和重组后输入数据进行乘累加运算。
乘累加运算阵列404基于重组后权重数据和重组后的输入数据进行乘累加运算,其中,乘累加运算阵列404每轮运算中所使用的乘累加运算单元的数目对应卷积计算块的大小。
乘累加运算阵列404进行一轮运算后,将计算得到的结果作为中间数据存储到缓存406中。乘累加运算阵列404在乘累加运算时,会将同一个卷积核中通道方向上的乘积相加后作为中间数据存储。然后,权重数据处理单元402根据卷积核在输入数据上进行卷积运算的顺序,继续从缓存409中读取权重数据块,而特征数据处理单元403从缓存409中读取并重组输入数据,以输出与该权重数据块匹配的输入数据块,乘累加运算阵列404据以进行另一轮的运算,如此循环往复,直至完成输入数据中的每一个数据块与权重数据块的运算。
接下来以一个具体应用场景为例对本发明进行说明,请继续参阅图3,假设C=32,W=6,H=6;D=32,R=3,S=3,M=16;d=16,m=16,w=1,h=1。则如图所示,输入数据可以被拆分72个输入数据块,一个卷积核可以被拆分为18个权重数据块。假设该卷积层对应的步长为1,并在长、宽方向均进行了长度为2的零填充,则输入数据上的0-35这36个输入数据块都需要与每一个卷积核中的00对应的权重数据块进行内积运算。
比如,输入数据上的大小为16×1×1(图3中的输入数据的灰色方块)的特征数据块0,该数据块需要与每一个卷积核中的大小为16×1×1的权重数据块00(图3中的卷积核的灰色方块)进行内积运算。因此,权重数据处理单元402根据目标调度模式对应的卷积计算块的大小(d=16,m=16,w=1,h=1),从缓存中的16个卷积核中,分别读取第一个权重数据块,得到16个大小为16×1×1的权重数据块00。特征数据处理单元403从输入数据中读取一个大小为16×1×1的输入数据块0,并将输入数据块0分别匹配给16个权重数据块00(也就是说,输入数据块0在乘累加运算阵列404的一轮运算中重复使用了16次,相当于256个数据)。输入数据块0及16个权重数据块00输入到乘累加运算阵列404进行运算,得到16个数值(通道方向上的乘积进行了相加处理),存储为中间结果,这个过程为乘累加运算阵列404的一轮运算。然后,再进行第二次读数据,以进行乘累加运算阵列404的第二轮运算。如前文所述,输入数据上的0-35这36个输入数据块都需要与每一个卷积核中的权重数据块00进行内积运算,因此,第二次读数据时无需重复读权重数据块00,只需从输入数据中读取大小为16×1×1的输入数据块1,将输入数据块1分别匹配给16个权重数据00,并利用乘累加运算阵列404进行运算,得到16个数值,也存储为中间结果。然后按照与第二轮运算相同的读数据方式,读取一个大小为16×1×1的输入数据块2,进行乘乘累加运算阵列404的第三轮运算,……,然后按照与第二轮运算相同的读数据方式,读取一个大小为16×1×1的输入数据块35,进行乘累加运算阵列404的第36轮运算。至此,完成了输入数据与权重数据块00的卷积运算,同时,存储了36组中间结果,每一组中间结果有16个数值。
接下来,在第37轮运算时,从缓存中读取16个大小为16×1×1的权重数据块01,从输入数据中读取一个大小为16×1×1的输入数据块0,将输入数据块0分别匹配给16个权重数据块01,并利用乘累加运算阵列404进行运算,得到16个数值,由于这16个数值与第一轮运算中得到的16数值均对应于输出数据上的输入数据块0,因此需要将这16个数值和分别与第一轮运算中得到的16个数值相加,得到新的16个数值,并存储为新的中间结果,覆盖掉第一轮运算存储的16个中间结果。按照与前36次同样的取数据方式,乘累加运算阵列404进行第37轮至第72轮运算,完成输入数据与权重数据块01的卷积运算。
重复执行上述运算过程,直至完成目标卷积核对输入数据的全部卷积运算,得到16个二维的输出数据,这16个二维的输出数据叠加,得到该目标卷积层的三维的输出数据。其中,如果下一层也是卷积层,则该输出数据可以被读取到缓存中,作为下一层运算的输入数据,继续进行卷积运算。
需要说明的是,上文所举的是一个为了便于读者理解本申请方案的一个具体实施例。在该实施例中,由于一次读取的权重值数量多于输入数据数量,因此,当相邻两轮运算中使用的权重值重复时,为了提高数据处理效率,没有重复读取权重数据块。但是这并不是对本申请方案的限制,在其他实施例中,也可以按照其他顺序读取数据,在按照其他顺序读取数据时,可以重复或者不重复的读取数据块。
具体实施时,本申请不受所描述的各个步骤的执行顺序的限制,在不产生冲突的情况下,某些步骤还可以采用其它顺序进行或者同时进行。
由上所述,本申请实施例提出的卷积神经网络的运算方法,对于卷积神经网络中具有不同网络结构的各个卷积层来说,可以动态地调整目标调度模式,使得每一个卷积层可以采用与其结构匹配的调度模式,来对输入数据和目标卷积核进行数据块的拆分及重组,使得拆分后的权重数据块中包含的权重值和特征数据块中包含的特征值的数量能够实现对乘累加运算阵列的运算资源的最大化利用,从整体上提高了硬件加速器的资源利用率,进而提高卷积神经网络的运算速度。
以上对本申请实施例所提供的一种卷积神经网络运算方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。
Claims (13)
1.一种卷积神经网络的运算方法,应用于一卷积神经网络运算装置,所述卷积神经网络运算装置包含一乘累加运算阵列,所述乘累加运算阵列包含多个乘累加运算单元,其特征在于,包括:
确定一目标卷积层中的目标卷积核的数量,及所述目标卷积核的一第一尺寸信息;
根据所述目标卷积核的数量和所述第一尺寸信息确定一目标调度模式,其中,所述目标调度模式对应一卷积计算块的大小;
根据所述目标调度模式,对所述目标卷积核中的权重数据进行拆分及重组,并将重组后所述权重数据输出至所述乘累加运算阵列;
根据所述目标调度模式,对所述目标卷积层中的输入数据进行拆分及重组,并将重组后所述输入数据输出至所述乘累加运算阵列;以及
以所述乘累加运算阵列基于重组后所述权重数据和重组后所述输入数据进行乘累加运算,其中,所述乘累加运算阵列每轮运算中所使用的所述乘累加运算单元的数目对应所述卷积计算块的大小;
所述乘累加运算阵列将中间数据存储到一缓存中,所述确定所述目标调度模式的步骤中更根据所述缓存的大小来确定所述目标调度模式。
2.如权利要求1所述的卷积神经网络的运算方法,其特征在于,所述目标调度模式对应所述乘累加运算阵列完成对所述输入数据及目标卷积核的最少运算轮数。
3.如权利要求1所述的卷积神经网络的运算方法,其特征在于,所述第一尺寸信息包含所述目标卷积核在通道方向上的深度信息。
4.如权利要求1所述的卷积神经网络的运算方法,其特征在于,所述目标调度模式是自多个预设调度模式中所选出。
5.如权利要求1所述的卷积神经网络的运算方法,其特征在于,所述目标卷积核的数量为M,所述卷积计算块的大小为m的整数倍,且M为m的整数倍,M及m皆为正整数。
6.如权利要求1所述的卷积神经网络的运算方法,其特征在于,对所述目标卷积层中的输入数据进行重组的步骤中使重组后所述输入数据匹配重组后所述权重数据。
7.一种卷积神经网络运算装置,用以对一目标卷积层中的目标卷积核及输入数据进行卷积运算,其特征在于,包括:
一调度模式单元,根据所述目标卷积核的数量及一第一尺寸信息确定一目标调度模式,其中,所述目标调度模式对应一卷积计算块的大小;
一第一数据处理单元,根据所述目标调度模式,对所述目标卷积核中的权重数据进行拆分及重组;
一第二数据处理单元,根据所述目标调度模式,对所述目标卷积层中的输入数据进行拆分及重组;以及
一乘累加运算阵列,包含多个乘累加运算单元,其基于重组后所述权重数据和重组后所述输入数据进行乘累加运算,其中,所述乘累加运算阵列每轮运算中所使用的所述乘累加运算单元的数目对应所述卷积计算块的大小;
所述乘累加运算阵列将中间数据存储到一缓存中,所述调度模式单元更根据所述缓存的大小来确定所述目标调度模式。
8.如权利要求7所述的卷积神经网络运算装置,其特征在于,所述目标调度模式对应所述乘累加运算阵列完成对所述输入数据及目标卷积核的最少运算轮数。
9.如权利要求7所述的卷积神经网络运算装置,其特征在于,所述第一尺寸信息包含所述目标卷积核在通道方向上的深度信息。
10.如权利要求7所述的卷积神经网络运算装置,其特征在于,所述目标调度模式是自多个预设调度模式中所选出。
11.如权利要求10所述的卷积神经网络运算装置,其特征在于,所述多个预设调度模式储存于一存储器中。
12.如权利要求7所述的卷积神经网络运算装置,其特征在于,所述目标卷积核的数量为M,所述卷积计算块的大小为m的整数倍,且M为m的整数倍,M及m皆为正整数。
13.如权利要求7所述的卷积神经网络运算装置,其特征在于,所述第一数据处理单元藉由将所述目标卷积核中的权重数据写入及读出一缓存以进行数据重组。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010967566.7A CN112200300B (zh) | 2020-09-15 | 2020-09-15 | 卷积神经网络运算方法及装置 |
| US17/401,358 US20220083857A1 (en) | 2020-09-15 | 2021-08-13 | Convolutional neural network operation method and device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010967566.7A CN112200300B (zh) | 2020-09-15 | 2020-09-15 | 卷积神经网络运算方法及装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN112200300A CN112200300A (zh) | 2021-01-08 |
| CN112200300B true CN112200300B (zh) | 2024-03-01 |
Family
ID=74015180
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010967566.7A Active CN112200300B (zh) | 2020-09-15 | 2020-09-15 | 卷积神经网络运算方法及装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20220083857A1 (zh) |
| CN (1) | CN112200300B (zh) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110083448B (zh) * | 2018-01-25 | 2023-08-18 | 腾讯科技(深圳)有限公司 | 一种计算资源调整方法、装置以及相关设备 |
| US11972348B2 (en) * | 2020-10-30 | 2024-04-30 | Apple Inc. | Texture unit circuit in neural network processor |
| CN115185482A (zh) * | 2021-04-02 | 2022-10-14 | 嘉楠明芯(北京)科技有限公司 | 一种基于神经网络的运算方法以及装置 |
| CN113592075B (zh) * | 2021-07-28 | 2024-03-08 | 浙江芯昇电子技术有限公司 | 卷积运算装置、方法和芯片 |
| CN113902096B (zh) * | 2021-09-29 | 2025-12-12 | Oppo广东移动通信有限公司 | 一种数据处理方法及装置、存储介质 |
| CN114169514B (zh) * | 2022-02-14 | 2022-05-17 | 浙江芯昇电子技术有限公司 | 一种卷积硬件加速方法及卷积硬件加速电路 |
| CN114429203B (zh) * | 2022-04-01 | 2022-07-01 | 浙江芯昇电子技术有限公司 | 一种卷积计算方法、卷积计算装置及其应用 |
| CN114997389A (zh) * | 2022-07-18 | 2022-09-02 | 成都登临科技有限公司 | 一种卷积计算方法、ai芯片及电子设备 |
| CN117827386A (zh) * | 2022-09-27 | 2024-04-05 | 北京有竹居网络技术有限公司 | 调度方法、调度装置、电子设备及存储介质 |
| CN116306809A (zh) * | 2023-02-21 | 2023-06-23 | 鼎道智芯(上海)半导体有限公司 | 一种数据处理方法、装置和神经网络处理器芯片 |
| CN118132909B (zh) * | 2023-08-10 | 2025-07-22 | 北京坤驰科技有限公司 | 一种数据处理方法、装置以及电子设备 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107844828A (zh) * | 2017-12-18 | 2018-03-27 | 北京地平线信息技术有限公司 | 神经网络中的卷积计算方法和电子设备 |
| KR20180050928A (ko) * | 2016-11-07 | 2018-05-16 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
| CN110147252A (zh) * | 2019-04-28 | 2019-08-20 | 深兰科技(上海)有限公司 | 一种卷积神经网络的并行计算方法及装置 |
| CN111091181A (zh) * | 2019-12-09 | 2020-05-01 | Oppo广东移动通信有限公司 | 卷积处理单元、神经网络处理器、电子设备及卷积运算方法 |
| CN111222090A (zh) * | 2019-12-30 | 2020-06-02 | Oppo广东移动通信有限公司 | 卷积计算模块、神经网络处理器、芯片和电子设备 |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10824938B2 (en) * | 2017-04-24 | 2020-11-03 | Intel Corporation | Specialized fixed function hardware for efficient convolution |
| KR102778191B1 (ko) * | 2017-11-07 | 2025-03-10 | 삼성전자주식회사 | 뉴럴 네트워크의 디컨벌루션 연산을 수행하는 장치 및 방법 |
| CN108388537B (zh) * | 2018-03-06 | 2020-06-16 | 上海熠知电子科技有限公司 | 一种卷积神经网络加速装置和方法 |
| CN109255434A (zh) * | 2018-10-15 | 2019-01-22 | 旺微科技(上海)有限公司 | 一种卷积神经网络中计算资源的调度方法及装置 |
| CN109829433B (zh) * | 2019-01-31 | 2021-06-25 | 北京市商汤科技开发有限公司 | 人脸图像识别方法、装置、电子设备及存储介质 |
| US10996976B2 (en) * | 2019-04-05 | 2021-05-04 | Alibaba Group Holding Limited | Systems and methods for scheduling neural networks by varying batch sizes |
| CN111222626B (zh) * | 2019-11-07 | 2021-08-10 | 恒烁半导体(合肥)股份有限公司 | 一种基于NOR Flash模块的神经网络的数据切分运算方法 |
| CN111178519B (zh) * | 2019-12-27 | 2022-08-02 | 华中科技大学 | 卷积神经网络加速引擎、卷积神经网络加速系统及方法 |
| WO2021237755A1 (zh) * | 2020-05-29 | 2021-12-02 | 华为技术有限公司 | 神经网络调度方法及装置 |
| US12499174B2 (en) * | 2020-07-09 | 2025-12-16 | Femtosense, Inc. | Methods and apparatus for matrix and vector storage and operations |
| TWI798591B (zh) * | 2020-10-07 | 2023-04-11 | 大陸商星宸科技股份有限公司 | 卷積神經網路運算方法及裝置 |
| EP3985570A1 (en) * | 2020-10-13 | 2022-04-20 | Imagination Technologies Limited | Implementation of a neural network in multicore hardware |
| CN113449852B (zh) * | 2021-08-05 | 2023-02-03 | 安谋科技(中国)有限公司 | 卷积神经网络的计算方法、片上系统和电子设备 |
-
2020
- 2020-09-15 CN CN202010967566.7A patent/CN112200300B/zh active Active
-
2021
- 2021-08-13 US US17/401,358 patent/US20220083857A1/en not_active Abandoned
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180050928A (ko) * | 2016-11-07 | 2018-05-16 | 삼성전자주식회사 | 컨볼루션 신경망 처리 방법 및 장치 |
| CN107844828A (zh) * | 2017-12-18 | 2018-03-27 | 北京地平线信息技术有限公司 | 神经网络中的卷积计算方法和电子设备 |
| CN110147252A (zh) * | 2019-04-28 | 2019-08-20 | 深兰科技(上海)有限公司 | 一种卷积神经网络的并行计算方法及装置 |
| CN111091181A (zh) * | 2019-12-09 | 2020-05-01 | Oppo广东移动通信有限公司 | 卷积处理单元、神经网络处理器、电子设备及卷积运算方法 |
| CN111222090A (zh) * | 2019-12-30 | 2020-06-02 | Oppo广东移动通信有限公司 | 卷积计算模块、神经网络处理器、芯片和电子设备 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20220083857A1 (en) | 2022-03-17 |
| CN112200300A (zh) | 2021-01-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112200300B (zh) | 卷积神经网络运算方法及装置 | |
| TWI740726B (zh) | 卷積神經網路的排序方法、運算方法及裝置 | |
| CN114138231B (zh) | 执行矩阵乘法运算的方法、电路及soc | |
| US20230229917A1 (en) | Hybrid multipy-accumulation operation with compressed weights | |
| CN117574970A (zh) | 用于大规模语言模型的推理加速方法、系统、终端及介质 | |
| US20230351181A1 (en) | Approximating activation functions with taylor series | |
| CN121100342A (zh) | 深度神经网络加速器中基于稀疏性的门切换减少 | |
| CN121399617A (zh) | 神经网络的动态的基于稀疏性的加速 | |
| US20230334289A1 (en) | Deep neural network accelerator with memory having two-level topology | |
| KR20250153192A (ko) | 희소성에 기초한 심층 신경망에서의 계산 스케줄링 | |
| CN121420306A (zh) | 可切换的一侧稀疏性加速 | |
| CN121420292A (zh) | 使用具有混合架构的查找表在神经网络中近似激活函数 | |
| KR102372869B1 (ko) | 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법 | |
| CN121359135A (zh) | 利用具有面积预算的可编程查询表的基于准确性的激活函数的逼近 | |
| CN121420303A (zh) | 使用可编程查找表对神经网络中的激活函数进行近似 | |
| WO2025091335A1 (en) | Multi-precision tensor multiplication in neural network | |
| CN121420305A (zh) | 深度神经网络中权重的逐块剪枝 | |
| CN116781484A (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
| TWI798591B (zh) | 卷積神經網路運算方法及裝置 | |
| CN121279374A (zh) | 具有包括存储体特定的时钟域交叉缓冲器的存储器的神经网络加速器 | |
| CN115221463A (zh) | 进行Winograd卷积的方法、可读存储介质及装置 | |
| CN111445019A (zh) | 一种分组卷积中通道混洗操作的实现装置及方法 | |
| CN118333108A (zh) | 一种用于卷积神经网络输入激活值4比特量化方法 | |
| TWI768497B (zh) | 智慧處理器、資料處理方法及儲存介質 | |
| CN114692861B (zh) | 计算图更新方法、计算图处理方法以及相关设备 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| CB02 | Change of applicant information | ||
| CB02 | Change of applicant information |
Address after: 361005 1501, zone a, innovation building, software park, torch hi tech Zone, Xiamen City, Fujian Province Applicant after: Xingchen Technology Co.,Ltd. Address before: 361005 1501, zone a, innovation building, software park, torch hi tech Zone, Xiamen City, Fujian Province Applicant before: Xiamen Xingchen Technology Co.,Ltd. |
|
| GR01 | Patent grant | ||
| GR01 | Patent grant |