使用 mesos 的火花集群

Posted

技术标签:

【中文标题】使用 mesos 的火花集群【英文标题】:spark cluster using mesos 【发布时间】:2019-04-01 11:03:05 【问题描述】:

当我尝试使用 mesos 的 spark 集群时,作业失败了。

问题(失败的作业日志)

ser/mesos_agent/slaves/bf120f55-2e2b-4c50-8ba9-fb667f0266a7-S0/frameworks/bf120f55-2e2b-4c50-8ba9-fb667f0266a7-0001/executors/driver-20190401172856-0001/runs/fe4a8723-5663-4fed-885f-9578524bd069/spark-2.1.0-bin-hadoop2.7.tgz'
I0401 17:30:28.234169  2551 exec.cpp:161] Version: 1.0.0
I0401 17:30:28.235190  2548 exec.cpp:236] Executor registered on agent 
bf120f55-2e2b-4c50-8ba9-fb667f0266a7-S0
JAVA_HOME is not set

这是我的配置

http服务器

使用python简单服务器:8080

http://simpleHttpServer/spark-2.1.0-bin-hadoop2.7.tgz

spark-env.sh

export JAVA_HOME=/home/pduser/jdk
export MESOS_NATIVE_JAVA_LIBRARY=/usr/local/lib/libmesos.so
export SPARK_EXECUTOR_URI=http://192.168.44.31:8000/spark-2.1.0-bin- 
hadoop2.7.tgz 

~/.bashrc

JAVA_HOME=/home/pduser/jdk
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
HADOOP_HOME=/home/pduser/hadoop
export JAVA_HOME
export CLASSPATH
export HD_HOME=/home/pduser/hadoop
export HADOOP_PREFIX=$HD_HOME
export HADOOP_COMMON_HOME=$HD_HOME
export HADOOP_HDFS_HOME=$HD_HOME
export HADOOP_MAPRED_HOME=$HD_HOME
export HADOOP_YARN_HOME=$HD_HOME
export HADOOP_CONF_DIR=$HD_HOME/etc/hadoop
export YARN_CONF_DIR=$HD_HOME/etc/hadoop
export SPARK_HOME=/home/pduser/spark
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/bin:$SPARK_HOME/bin:
export PATH

【问题讨论】:

【参考方案1】:

我解决了将JDK版本更改为OpenJDK 1.8的问题。

【讨论】:

以上是关于使用 mesos 的火花集群的主要内容,如果未能解决你的问题,请参考以下文章

使用远程 jvm 在纱线集群上提交火花作业时出现异常

在火花代码管理 conf.setMaster() 使用配置文件自动设置本地或纱线集群

火花历史未在 ambari 集群上启动

火花集群中可用的资源有限

多节点火花集群上的 spark-shell 无法在远程工作节点上旋转执行程序

Apache Spark和Livy集群