Spark大数据处理TB级别海量数据的Shuffle成本(草稿)

Posted javartisan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark大数据处理TB级别海量数据的Shuffle成本(草稿)相关的知识,希望对你有一定的参考价值。

1:轻易不要shuffle,例如20万个小文件(文件大小100MB,spark一个文件一个分区)的想要进行缩减5-8万的分区轻易不要repartition,而是coalase 进行分区合并 

以上是关于Spark大数据处理TB级别海量数据的Shuffle成本(草稿)的主要内容,如果未能解决你的问题,请参考以下文章

3-ELK+Kafka+Filebeat 海量级日志收集 TB PB级别

hadoop 大数据框架

百亿级别!Spark与HBase怎么玩?

Spark第一周

Spark高级排序彻底解密(DT大数据梦工厂)

在 Spark 中高效地连接一个大表(1TB)和另一个小表(250GB)