Spark大规模机器学习的性能瓶颈和解决方案

Posted 小帆的帆

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark大规模机器学习的性能瓶颈和解决方案相关的知识,希望对你有一定的参考价值。

  • 瓶颈:

在模型的参数维度非常大时,spark的内存和网络会成为比较大的瓶颈。
在每轮训练之前,spark driver都会把模型参数广播到executor端, 每个task分区训练完本地分区数据后,会把算出的梯度或weights增量聚集到driver端对模型参数(weights)进行更新。当模型参数维度比较高时,网络广播和聚集都需要比较长的时间,也需要耗费比较多的内存,同时更新计算时间也会比较长。

  • 解决方案:

采用参数服务器。参数服务器将模型参数(一维或多维数组)划成多个分区分布地存储在多个节点上, 支持并行地对模型参数进行获取、更新等操作,它具有高性能、可扩展、容错等特点。
在机器学习和深度学习中,通过使用参数服务器,每个task分区可以只获得自己需要的那部分参数,这样只需要更少的内存和网络传输。 同时参数的更新也可以并行地在所有参数服务器节点上进行,从而提高了性能。

以上是关于Spark大规模机器学习的性能瓶颈和解决方案的主要内容,如果未能解决你的问题,请参考以下文章

sona:Spark on Angel大规模分布式机器学习平台介绍

sona:Spark on Angel大规模分布式机器学习平台介绍

Hadoop对Spark:正面比拼报告(架构性能成本安全性和机器学习)

当机器学习性能遭遇瓶颈时,如何优化?如何去尝试解决问题?

Project Tungsten:让Spark将硬件性能压榨到极限(转载)

基于Spark 推荐系统特征工程