spark3的打包

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark3的打包相关的知识,希望对你有一定的参考价值。


网上有很多关于spark如何打包的文章,但有一些是很老的,不适用于spark3版本的scala2.1以上

一 导入依赖

这是新的版本的scala打包插件要导入依赖

<!-- https://mvnrepository.com/artifact/net.alchim31.maven/scala-maven-plugin -->
<dependency>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.4.6</version>
</dependency>

二 添加插件和启动入口

<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-jar-plugin</artifactId>
<version>2.4</version>
<configuration>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<classpathPrefix>lib/</classpathPrefix>
<!--执行的主程序-->
<mainClass>sparksql.demo01.Test6</mainClass>
</manifest>
</archive>
</configuration>
</plugin>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>4.5.1</version>
<executions>
<execution>
<goals>
<goal>compile</goal>
<goal>testCompile</goal>
</goals>
</execution>
</executions>

</plugin>

</plugins>


以上是关于spark3的打包的主要内容,如果未能解决你的问题,请参考以下文章

将运行时 7.3LTS(Spark3.0.1) 升级到 9.1LTS(Spark3.1.2) 后创建 PySpark 数据帧 Databricks 时,json 文件中的重复列会引发错误

0814-基于CDP7.1.3的Spark3.0正式发布

数据湖:Spark3.1.2与Iceberg0.12.1整合

唯品会SPARK3.0升级之路

Ubuntu下安装Spark3.2.0教程

Spark3 AQE (Adaptive Query Execution) 一文搞懂 新特性