安装cdh时启动spark一个坑

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了安装cdh时启动spark一个坑相关的知识,希望对你有一定的参考价值。

1、cdh在spark的conf中没有slaves文件
解决方法:在spark的conf目录下添加slaves文件,内容为worker节点名
2、yarn的端口和spark的worker端口冲突都是7337,导致worker进程不能正常工作
解决办法:在spark的conf目录下修改spark-default.conf文件,把里面的7337端口
改成其他的端口

以上是关于安装cdh时启动spark一个坑的主要内容,如果未能解决你的问题,请参考以下文章

CDH集群提交Spark作业原理及过程分析

CDH集群spark-shell执行过程分析

cdh 上安装spark on yarn

hadoop cdh 后启动群起脚本总是起不起来的一些坑

cdh5.15集群添加spark2.3服务(parcels安装)

CDH中如何升级Spark