spark-任务提交多个jar包问题(Oozie调度)
Posted IT民工超
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-任务提交多个jar包问题(Oozie调度)相关的知识,希望对你有一定的参考价值。
写在前面的话
./bin/spark-submit --class my.main.Class \
--master yarn \
--deploy-mode cluster \
--jars my-other-jar.jar,my-other-other-jar.jar \
my-main-jar.jar \
app_arg1 app_arg2
修改后提交如下
spark-submit \
--class com.xxx.bigdata.handler.xxx \ -- 运行的主类
--master yarn \
--deploy-mode client \
--driver-memory 1g \
--executor-memory 2g \
--executor-cores 2 \
--jars hdfs:///user/admin/xx/basejar/dw-xx-1.0.0-SNAPSHOT.jar,hdfs:///user/admin/xx/basejar/dw-xx-1.0.0-SNAPSHOT.jar,hdfs:///user/admin/xx/basejar/base-1.0-SNAPSHOT-shaded.jar,hdfs:///user/admin/xx/basejar/xx-sdk-1.0.0-SNAPSHOT.jar \ -- 依赖的jar包必须在一行
hdfs:///user/admin/xx/sourcejar/dw-xx-sdk-1.0.0-SNAPSHOT.jar -- 运行的主类所在的jar包
依赖jar和主类jar需分别在两行,后面跟参数即可,官网也有明确的实例。
以上是关于spark-任务提交多个jar包问题(Oozie调度)的主要内容,如果未能解决你的问题,请参考以下文章