《智能计算系统》课程报告——《An Efficient FPGA Accelerator Optimized for High Throughput Sparse CNN Inference》学习笔记
Posted songyuc
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《智能计算系统》课程报告——《An Efficient FPGA Accelerator Optimized for High Throughput Sparse CNN Inference》学习笔记相关的知识,希望对你有一定的参考价值。
1 摘要
剪枝技术能够对CNN模型进行压缩,通过不重要权重置零来降低大型CNN模型的工作量。然而,对于硬件架构来说,通过高并行来载入和操作非零数据是一项巨大的挑战,这是由于减枝权重的位置是随机的。为了解决这个问题,本文提出了一项稀疏感知的CNN加速其,来处理不规则减枝的CNN模型。本文设计了一宗可选的池化架构来挑选出由非零权重选择所需的随机激活操作。这里使用了一种三位结构来缓解随机非零权值和高并发带来的负载不均衡。此外,还设计了专门的索引方法来配合池化架构来完成整个稀疏数据流。提出的稀疏感知CNN加速器在 Intel_Arria_10_FPGA上,与基线设计相比,在多个常见的CNN模型上实现了高达89.7%的吞吐率提升。
以上是关于《智能计算系统》课程报告——《An Efficient FPGA Accelerator Optimized for High Throughput Sparse CNN Inference》学习笔记的主要内容,如果未能解决你的问题,请参考以下文章