spark-shell 执行脚本并传入参数
Posted 大龄青年十年如一日坚持编程只为图个乐
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-shell 执行脚本并传入参数相关的知识,希望对你有一定的参考价值。
使用方法:
./spark-script.sh your_file.scala first_arg second_arg third_arg
脚本:
scala_file=$1 shift 1 arguments=[email protected] #set +o posix # to enable process substitution when not running on bash spark-shell --master yarn --deploy-mode client --queue default --driver-memory 2G --executor-memory 4G --num-executors 10 -i <(echo ‘val args = "‘$arguments‘".split("\\s+")‘ ; cat $scala_file)
linux shell 重定向:
Command < filename > filename2 | Command命令以filename文件作为标准输入,以filename2文件作为标准输出 |
参考文献:
http://stackoverflow.com/questions/29928999/passing-command-line-arguments-to-spark-shell
以上是关于spark-shell 执行脚本并传入参数的主要内容,如果未能解决你的问题,请参考以下文章