Spark实例-spark读取外部配置文件之--files

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark实例-spark读取外部配置文件之--files相关的知识,希望对你有一定的参考价值。

参考技术A 在运行spark程序的时,有时需要读取外部配置参数,比如mysql的host参数、端口号、es主机ip、es端口号等。通过外部文件配置参数也方便程序迁移。下面就来看看如何来实现。

1、首先我们需要一个配置文件:
config.properties

2、上传配置文件到某个节点:

4、通过 Maven打包程序:test_CDH.jar

5、上传 test_CDH.jar 到集群

6、执行 submit 命令

spark2-submit --master yarn --deploy-mode cluster --files config.properties --jars libs/hbase-client-1.2.0.jar,libs/hbase-common-1.2.0.jar,libs/hbase-server-1.2.0.jar,libs/mysql-connector-java-8.0.15.jar --driver-class-path libs/mysql-connector-java-8.0.15.jar --conf spark.executor.userClassPathFirst=true --conf spark.driver.userClassPathFirst=true --class test_CDH.Main libs/test_CDH.jar $1

--files 参数指定我们需要加载的外部配置文件

以上是关于Spark实例-spark读取外部配置文件之--files的主要内容,如果未能解决你的问题,请参考以下文章

来自 Apache Spark 的外部配置单元中存在的查询表 [重复]

scala实战之spark读取mysql数据表并存放到mysql库中编程实例

使用 spark hivecontext 读取外部 hive 分区表的问题

三天掌握Spark--外部数据源

读取分区镶木地板时,Spark 错误地将以“d”或“f”结尾的分区名称解释为数字

从 spark 插入到集群配置单元表