spark3的打包
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark3的打包相关的知识,希望对你有一定的参考价值。
网上有很多关于spark如何打包的文章,但有一些是很老的,不适用于spark3版本的scala2.1以上
一 导入依赖
这是新的版本的scala打包插件要导入依赖
<!-- https://mvnrepository.com/artifact/net.alchim31.maven/scala-maven-plugin -->
<dependency>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.4.6</version>
</dependency>
二 添加插件和启动入口
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-jar-plugin</artifactId>
<version>2.4</version>
<configuration>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<classpathPrefix>lib/</classpathPrefix>
<!--执行的主程序-->
<mainClass>sparksql.demo01.Test6</mainClass>
</manifest>
</archive>
</configuration>
</plugin>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>4.5.1</version>
<executions>
<execution>
<goals>
<goal>compile</goal>
<goal>testCompile</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
以上是关于spark3的打包的主要内容,如果未能解决你的问题,请参考以下文章
将运行时 7.3LTS(Spark3.0.1) 升级到 9.1LTS(Spark3.1.2) 后创建 PySpark 数据帧 Databricks 时,json 文件中的重复列会引发错误