sbt自定义spark参数

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了sbt自定义spark参数相关的知识,希望对你有一定的参考价值。

开发spark程序时,需要依赖于spark的jar包,因此需要将spark的jar包的作用域(scope)设置成compile,如果设置成provided的话,会提示找不到ClassNotFoundException的错误。
但在线上服务构建时,又需要将作用域改成provided。那么build.sbt怎么写才可以呢?这里提供一个方法,可以用以下方法:

val spark_scope = System.getProperty("spark.scope", "compile")

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.0" % spark_scope

正常开发过程中,不需要设置 spark.scope ,那么默认采用compile

正式发布时,只需要用以下命令进行构建。

sbt -Dspark.scope=provided  clean assembly

 

以上是关于sbt自定义spark参数的主要内容,如果未能解决你的问题,请参考以下文章

Visual Studio 自定义代码片段在方法定义的参数列表中不起作用

sbt编译spark程序提示value toDF is not a member of Seq()

vs code 自定义代码片段

使用自定义 sbt 插件

如何在sbt 1.0.x中发布自定义工件

sbt 在运行 Spark hello world 代码时出错?