谷歌推出演算法,加快AI边缘装置效能

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了谷歌推出演算法,加快AI边缘装置效能相关的知识,希望对你有一定的参考价值。

技术图片

谷歌推出EfficientNet-EdgeTPU演算法,加快AI边缘装置效能。EfficientNet-EdgeTPU是针对Coral Dev Board,Tinker Edge T等搭载Edge TPU张量处理器进行最佳化的演算法,能提升神经网路运算效能达10倍,对运算能量有限的边缘装置来说,是相当重要的突破,并能带来更多应用可能性。

透过AI弥补摩尔定律放缓

摩尔定律(摩尔定律)由英特尔创始人之一戈登?摩尔提出,他预测每隔两年积体电路可容纳的电晶体数目会增加1倍,过去数十年,电脑发展都相当契合这条定律。

Google在官方AI研究部落格提到,在半导体制程越来越精进之后,要进一步缩小电晶体的尺寸比以往更困难,因此资讯产业便逐渐将开发焦点转移到硬体加速等特殊应用领域,以持续推动产业发展。

这个现象也发生在AI,机器学习领域,许多研发单位都在致力打造神经网路(神经网络,NN)的加速运算单元,但是讽刺的是,即便应用于资料中心或边缘装置的神经运算装置越来越普遍,但却很少为这些硬体最佳化设计的演算法。

为了解决这个问题,Google发表了EfficientNet-EdgeTPU影像分类演算模型,顾名思义可能到它以及Google自家开源EfficientNets模型为基础,并针对Edge TPU最佳化,以利提升边缘装置在AI运算的效能表现。

技术图片

▲华硕推出的Tinker Edge T开发板也搭载Edge TPU。

针对Edge TPU最佳化

为了将EfficientNets最佳化,Google的研发团队使用AutoML MNAS框架,并针对Edge TPU的特性调整神经网路的搜索空间(Search Space),同时也整合延迟预测模组,以利预估Edge TPU的运算延迟。

执行运算时,EfficientNets主要采用深度可分离卷积(Depthwise-Separable Convolutions),虽然可以降低运算量,但并不适合Edge TPU的架构,因此EfficientNet-EdgeTPU改采一般常规卷积,虽然会让运算量增加,但还是有较好的整体运算效能。

实际验证的测试中,EfficientNet-EdgeTPU-S代表基本模型,而-M和-L模型则代先采用复合缩放将原始图像调整为最佳解析度,以更大,更准确的模型判读,牺牲延迟换取更高准确度。结果报告显示,无论使用哪款模型,效能与准确度都有出色表现,效能大幅领先ResNet-50,准确度也远高于MobileNet V2。

以上是关于谷歌推出演算法,加快AI边缘装置效能的主要内容,如果未能解决你的问题,请参考以下文章

思想素养—— 法治治理效能的提高

论文基于AI边缘计算的铁路行车视频监控智能识别研究

云栖直播精彩推荐第2期:首届阿里巴巴研发效能嘉年华

R语言plotly可视化:可视化回归模型实际值和回归预测值的散点图分析回归模型的预测效能区分训练集和测试集一个好的模型大部分的散点在对角线附近添加边缘直方图以快速诊断模型可能存在的任何预测偏差

研发工具一体化:低代码引发的效能演进

研发工具一体化:低代码引发的效能演进