Spark 3.1.3 HADOOP_CONF_DIR or YARN_CONF_DIR must be set
Posted @SmartSi
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark 3.1.3 HADOOP_CONF_DIR or YARN_CONF_DIR must be set相关的知识,希望对你有一定的参考价值。
1. 现象
使用如下命令以 client 模式提交作业到 Yarn 上时:
spark-submit \\
--class com.spark.example.core.base.WordCount \\
--master yarn \\
--deploy-mode client \\
--executor-memory 2g \\
--num-executors 4 \\
--executor-cores 1 \\
spark-example-3.1-1.0.jar \\
/data/word-count/word-count-input /data/word-count/word-count-output
抛出如下异常:
Exception in thread "main" org.apache.spark.SparkException: When running with master \'yarn\' either
以上是关于Spark 3.1.3 HADOOP_CONF_DIR or YARN_CONF_DIR must be set的主要内容,如果未能解决你的问题,请参考以下文章
Spark 3.1.3 HADOOP_CONF_DIR or YARN_CONF_DIR must be set
大数据平台搭建:Hadoop-3.1.3+Hive-3.1.2+HBase-2.2.3+Zookeeper-3.5.7+Kafka_2.11-2.4.0+Spark-2.4.5
hadoop集群搭建(Hadoop 3.1.3 /Hive 3.1.2/Spark 3.0.0)
Input path does not exist: file:/opt/apps/hive-3.1.3/conf/spark-warehouse