实战技巧通过Spark日志文件定位作业报错或异常
Posted 勾叔谈大数据
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了实战技巧通过Spark日志文件定位作业报错或异常相关的知识,希望对你有一定的参考价值。
Driver
Executor
nohup ./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode client \
--executor-memory 20G \
--num-executors 50 \
/path/to/examples.jar \
yarn logs -applicationId application_1552880376963_0002 >> o
application_1552880376963_0002 是 Spark 作业 id,当汇聚为一个文件后,我们就可以对其进行查看了。打开文件,我们发现这份日志是这样组织的:
container_0
-----------------------------------------------------
WARN.....
ERROR.....
......(日志内容)
container_1
-----------------------------------------------------
......(日志内容)
......
以上是关于实战技巧通过Spark日志文件定位作业报错或异常的主要内容,如果未能解决你的问题,请参考以下文章
启动zookeeper和kafka时kafka报错或闪退一直无法启动
实战干货解决Spark数据倾斜之快速准确定位数据倾斜产生原因
Spark API综合实战:动手实战和调试Spark文件操作动手实战操作搜狗日志文件搜狗日志文件深入实战