29.深度学习模型压缩方法-3

Posted 大勇若怯任卷舒

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了29.深度学习模型压缩方法-3相关的知识,希望对你有一定的参考价值。

29.1 后端压缩

(1)低秩近似

  • 在卷积神经网络中,卷积运算都是以矩阵相乘的方式进行
  • 对于复杂网络,权重矩阵往往非常大,非常消耗存储和计算资源
    • 低秩近似就是用若干个低秩矩阵组合重构大的权重矩阵,以此降低存储和计算资源消耗。
事项 特点
优点 可以降低存储和计算消耗; 一般可以压缩2-3倍;精度几乎没有损失;
缺点 模型越复杂,权重矩阵越大,利用低秩近似重构参数矩阵不能保证模型的性能 ; 超参数的数量随着网络层数的增加呈线性变化趋势,例如中间层的特征通道数等等。 随着模型复杂度的提升,搜索空间急剧增大。

(2)未加限制的剪枝

  • 完成训练后,不加限制地剪去那些冗余参数。
事项 特点
优点 保持模型性能不损失的情况下,减少参数量9-11倍; 剔除不重要的权重,可以加快计算速度,同时也可以提高模型的泛化能力;
缺点 极度依赖专门的运行库和特殊的运行平台,不具有通用性; 压缩率过大时,破坏性能;

(3)参数量化

  • 神经网络的参数类型一般是32位浮点型,

以上是关于29.深度学习模型压缩方法-3的主要内容,如果未能解决你的问题,请参考以下文章

slowfast 损失函数改进深度学习网络通用改进方案:slowfast的损失函数(使用focal loss解决不平衡数据)改进

从表格数据训练深度学习模型时,损失总是 nan

深度神经网络压缩和加速详解

关于使用深度学习进行三维点云几何压缩

知识蒸馏轻量化模型架构剪枝…几种深度学习模型压缩方法

损失函数和深度学习