命名Spark Job

Posted DataRain

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了命名Spark Job相关的知识,希望对你有一定的参考价值。

有些Spark程序特别复杂,拥有很多输出因此Job特别多,在Web UI上查看时特别不方便,比较难针对某个特定的任务进行调优或者排查错误,这时可以通过JavaSparkContext的setJobGroup方法来设定这些Job的名字,方便定位业务逻辑在Web UI中的位置,疗效还是有的。

javaSparkContext.setJobGroup(getName(),getName())

设置前:


设置后:


以上是关于命名Spark Job的主要内容,如果未能解决你的问题,请参考以下文章

在这个 spark 代码片段中 ordering.by 是啥意思?

python+spark程序代码片段

小记--------spark-job触发流程源码分析

深入理解Spark原理,从性能优化入手

多线程提交Spark Job

Spark的基本说明