资讯专栏INFORMATION COLUMN

深度学习模型压缩与加速

fanux / 2556人阅读

摘要:模型压缩与加速前言加速网络的设计分组卷积分解卷积结构神经网络搜索模型剪枝核稀疏化量化操作前言压缩与加速对于深度学习模型的端侧部署至关重要,但假设你的模型部署在服务端,模型的压缩与加速显得作用并不是特别大。

前言

压缩与加速对于深度学习模型的端侧部署至关重要,但假设你的模型部署在服务端,模型的压缩与加速显得作用并不是特别大。在前一篇博客中,深度学习 模型压缩之知识蒸馏介绍了蒸馏的知识。我对知识蒸馏个人看法是没太大的必要去设计这样的网络训练,因为知识蒸馏需要花费功夫去训练一个好的教师模型,然后通过这个教师模型去训练学生模型(轻量模型),在这个过程中,也可以对教师模型进行压缩与量化从而达到模型的轻量化。另一方面,除非你的模型部署在端侧,否则一个大型的模型部署在服务器上不需要深度考虑模型的压缩与量化。

接下来本博客介绍一些模型压缩与加速的方法,包括两个方面:1. 设计网络结构实现加速;2. 对模型进行剪枝与量化。

加速网络的设计

分组卷积

分组卷积即将输入的feature maps分成不同的组(沿channel维度进行分组),然后对不同的组分别进行卷积操作,即每一个卷积核置于输入的feature maps的其中一组进行连接,而普通卷积操作则是与所有的feature maps进行连接计算。分组数k越多,卷积操作的总参数量和总计算量就越少。然而分组卷积有一个致命的缺点就是不同分组的通道间减少了信息流通,即输出的feature maps只考虑了输入特征的部分信息,因此在实际应用的时候会在分组卷积之后进行信息融合操作。

  1. shuffle net
  2. Mobilenet

分解卷积

分解卷积,即将普通的kxk卷积分解为 k × 1 k/times1 k×1 1 × k 1/times k 1×k卷积,通过这种方式可以在感受野相同的时候大量减少计算量,同时也减少了参数量,在某种程度上可以看成是使用 2 k 2k 2k个参数模拟 k × k k/times k k×k个参数的卷积效果,从而造成网络的容量减小,但是可以在较少损失精度的前提下,达到网络加速的效果。

BottleNeck结构

Bottleneck结构,主要是通过 1 × 1 1/times1 1×1卷积进行降维和升维,能在一定程度上能够减少计算量和参数量。其中 1 × 1 1/times1 1×1卷积操作的参数量和计算量少,使用其进行网络的降维和升维操作(减少或者增加通道数)的开销比较小,从而能够达到网络加速的目的。

神经网络搜索

神经结构搜索是一种自动设计神经网络的技术,可以通过算法根据样本集自动设计出高性能的网络结构,在某些任务上甚至可以媲美人类专家的水准,甚至发现某些人类之前未曾提出的网络结构,这可以有效的降低神经网络的使用和实现成本。

NAS的原理是给定一个称为搜索空间的候选神经网络结构集合,用某种策略从中搜索出最优网络结构。神经网络结构的优劣即性能用某些指标如精度、速度来度量,称为性能评估,可以通过NAS自动搜索出高效率的网络结构。

模型剪枝

结构复杂的网络具有非常好的性能,其参数也存在冗余,因此对于已训练好的模型网络,可以寻找一种有效的评判手段,将不重要的connection或者filter进行裁剪来减少模型的冗余。

剪枝的基本流程如下:

  1. 正常流程训练一个神经网络,得到训练好的model
  2. 确定一个需要剪枝的层,一般为全连接层,设定一个裁剪阈值或者比例。实现上,通过修改代码假如一个与参数矩阵尺寸一致的mask矩阵。mask矩阵只有0和1,实际上是用于重新训练的网络。
  3. 重新训练微调,参数在计算的时候应该先乘以该mask,则mask位为1的参数值将继续通过BP调整,而mask位为0的部分因为输出始终为0则不对后续部分产生影响。
  4. 输出模型参数存储的时候,因为有大量的稀疏,所以需要重新定义储存的数据结构,仅储存非0值以及矩阵位置。重新读取模型模型参数的时候,就可以还原矩阵。

神经网络的参数量往往非常多,而其中大部分的参数在训练好之后都会趋近于零,对整个网络的贡献可以忽略不计。通过剪枝操作可以使网络变得稀疏,需要存储的参数量减少,但是剪枝操作同样会降低整个模型的容量(参数量减少),在实际训练时,有时候会通过调整优化函数,诱导网络去利用模型的所有参数,实质上就是减少接近于零的参数量。最后,对于如何自动设定剪枝率,如何自适应设定剪枝阈值,在这里不做过多讨论。

核稀疏化

核的稀疏化,是在训练过程中,对权重的更新加以正则项进行诱导,使其更加稀疏,使大部分的权值都为0。核的稀疏化方法分为regular和irregular,regular的稀疏化后,裁剪起来更加容易,尤其是对im2col的矩阵操作,效率更高;而irregular的稀疏化会带来不规则的内存访问,参数需要特定的存储方式,或者需要平台上稀疏矩阵操作库的支持,容易受到带宽的影响,在GPU等硬件上加速并不明显。

量化操作

二值权重网络(BWN)是一种只针对神经网络系数二值化的二值网络算法。BWN只关心系数的二值化,并采取了一种混和的策略,构建了一个混有单精度浮点型中间值与二值权重的神经网络–BinaryConnect。BinaryConnect在训练过程中针对特定层的权重进行数值上的二值化,即把原始全精度浮点权重强行置为-1、+1两个浮点数,同时不改变网络的输入和层之间的中间值,保留原始精度。而真正在使用训练好的模型时,由于权重的取值可以抽象为-1、+1,因此可以采用更少的位数进行存放,更重要的是,很显然权重取值的特点使得原本在神经网络中的乘法运算可以被加法代替。乘法运算转变为加法的好处在于:计算机底层硬件在实现两个n位宽数据的乘法运算时必须完成2*n位宽度的逻辑单元处理,而同样数据在执行加法时只需要n个位宽的逻辑单元处理,因此理论上可以得到2倍的加速比。

由于BWN取得的成功,人们开始尝试对二值网络进行更加深入的研究改造,并试图从中获得更大的性能提升。其中,最重要的基础工作是Matthieu Courbariaux 等人在几个月后提出的二值神经网络(BNN)。这一方法在BWN的基 础上进一步加大二值化力度,进而完全改变了整个神经网络中的计算方式,将所需的计算量压缩到极低的水平。

BNN要求不仅对权重做二值化,同时也要对网络中间每层的输入值进行二值化,这一操作使得所有参与乘法运算的数据都被强制转换为“-1”、“+1”二值。我们知道计算机的硬件实现采用了二进制方式,而神经网络中处理过的二值数据 恰好与其一致,这样一来就可以考虑从比特位的角度入手优化计算复杂度。

BNN也正是这样做的:将二值浮点数“-1”、“+1”分别用一个比特“0”、“1”来表示,这样,原本占用32个比特位的浮点数现在只需1个比特位就可存放,稍加处理就可以实现降低神经网络前向过程中内存占用的效果。同时,一对“-1”、“+1”进行乘法运算,得到的结果依然是“-1”、“+1”,通过这一特性就可将原本的浮点数乘法用一个比特的位运算代替,极大的压缩了计算量,进而达到提高速度、降低能耗的目的。然而,大量的实验结果表明,BNN只在小规模数据集上取得了较好的准确性,在大规模数据集上则效果很差。

Song Han等人在量化神经网络(QNN)方面做了大量研究工作。这一网络的主要目的是裁剪掉数据的冗余精度,原本32位精度的浮点数由“1 8 23”的结构构成,裁剪的方法是根据预训练得到的全精度神经网络模型中的数据分布,分别对阶码和位数的长度进行适当的减少。实验证明,对于大部分的任务来说,6位比特或者8位比特的数据已经能够保证足够好的测试准确率。

QNN在实际的操作中通常有两种应用方式,一种是直接在软件层面实现整形的量化,通过更少的数据位数来降低神经网络在使用时计算的复杂度;另一种重要的应用是针对于AI专用芯片的开发。

由于芯片开发可以设计各种位宽的乘法器,因此将神经网络中32位的全精度数据可以被处理成6位或8位的浮点数,同时结合硬件指定的乘法规则,就可以在硬件上实现更高的运算效率,达到实时运行深度神经网络的目的。这也是QNN最大的理论意义。但是如果从软件角度而非硬件角度出发,只是将浮点数量化成整形数,就没有办法显著地降低计算复杂度(除非对整形再进行量化),也就无法达到在低配硬件环境上实时运行深度神经网络的目的。因此,在软件设计的层面上,QNN相比BNN并没有特别明显的优势。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/123711.html

相关文章

  • 端上智能——深度学习模型压缩加速

    摘要:摘要随着深度学习网络规模的增大,计算复杂度随之增高,严重限制了其在手机等智能设备上的应用。因此需要采用深度学习模型来进行压缩和加速,下面介绍两种压缩算法。 摘要:随着深度学习网络规模的增大,计算复杂度随之增高,严重限制了其在手机等智能设备上的应用。如何使用深度学习来对模型进行压缩和加速,并且保持几乎一样的精度?本文将为大家详细介绍两种模型压缩算法,并展示了阿里巴巴模型压缩平台和前向推理...

    awokezhou 评论0 收藏0
  • 端上智能——深度学习模型压缩加速

    摘要:摘要随着深度学习网络规模的增大,计算复杂度随之增高,严重限制了其在手机等智能设备上的应用。因此需要采用深度学习模型来进行压缩和加速,下面介绍两种压缩算法。 摘要:随着深度学习网络规模的增大,计算复杂度随之增高,严重限制了其在手机等智能设备上的应用。如何使用深度学习来对模型进行压缩和加速,并且保持几乎一样的精度?本文将为大家详细介绍两种模型压缩算法,并展示了阿里巴巴模型压缩平台和前向推理...

    newtrek 评论0 收藏0
  • 国内首款FPGA云服务器诞生

    摘要:月日,腾讯云宣布,推出国内首款高性能异构计算基础设施云服务器,以云服务方式将大型公司才能长期支付使用的推广到更多企业。此举让腾讯云成为国内在云端开放计算服务的云服务商。 1月20日,腾讯云宣布,推出国内首款高性能异构计算基础设施——FPGA云服务器,以云服务方式将大型公司才能长期支付使用的FPGA推广到更多企业。腾讯云官网现已开放FPGA使用申请通过FPGA云服务器,企业可以进行FPGA硬件...

    liaosilzu2007 评论0 收藏0
  • 深度学习的最大瓶颈是带宽问题而非计算

    摘要:科技评论绝大部分论文都是为了解决问题,深鉴科技的这篇论文的核心灵感来自于哪里一直以来,深度学习计算遇到的较大瓶颈其实是带宽问题,而非计算本身。由于深度学习里的特征表示本身就是稀疏的,因此我们做一个直接的剪枝压缩来减少带宽的使用。 近日,深鉴科技的 ESE 语音识别引擎的论文在 FPGA 2017 获得了的较佳论文 ESE: Efficient Speech Recognition Engin...

    马永翠 评论0 收藏0
  • 斯坦福DAWNBench:华为云ModelArts深度学习训练全球最快

    摘要:斯坦福华为云深度学习训练全球最快近日斯坦福大学发布了最新成绩在图像识别以上精度的总训练时间上华为云排名第一仅需分秒比第二名提升近。 斯坦福DAWNBench:华为云ModelArts深度学习训练全球最快 近日,斯坦福大学发布了DAWNBenchmark最新成绩,在图像识别(ResNet50-on-ImageNet,93%以上精度)的总训练时间上,华为云ModelArts排名第一,仅需1...

    waltr 评论0 收藏0

发表评论

0条评论

fanux

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<