spark-shell 执行脚本并传入参数

Posted 大龄青年十年如一日坚持编程只为图个乐

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-shell 执行脚本并传入参数相关的知识,希望对你有一定的参考价值。

使用方法:

./spark-script.sh your_file.scala first_arg second_arg third_arg


脚本

scala_file=$1

shift 1

arguments=[email protected]

#set +o posix  # to enable process substitution when not running on bash 

spark-shell  --master yarn --deploy-mode client          --queue default         --driver-memory 2G --executor-memory 4G         --num-executors 10         -i <(echo val args = "$arguments".split("\\s+") ; cat $scala_file)

linux shell 重定向:

Command < filename > filename2 Command命令以filename文件作为标准输入,以filename2文件作为标准输出

 

 

参考文献:

http://stackoverflow.com/questions/29928999/passing-command-line-arguments-to-spark-shell

以上是关于spark-shell 执行脚本并传入参数的主要内容,如果未能解决你的问题,请参考以下文章

如何将命令行参数传递给 spark-shell scala 脚本?

spark-shell解析

往shell脚本中传入参数

Spark-shell批量命令执行脚本

6. Pycharm的传参快捷键执行代码调试模式

如何在shell中执行一个模块,这个模块需要传入参数