如何查看spark与hadoopkafkaScalaflumehive等兼容版本适用于任何版本

Posted About云

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何查看spark与hadoopkafkaScalaflumehive等兼容版本适用于任何版本相关的知识,希望对你有一定的参考价值。

问题导读

1.通过什么途径,可以查看与spark兼容的组件版本?
2.如何获取pom文件?
3.pom文件中包含了哪些信息?
4.spark编译通过什么参数可以指定hadoop版本?


当我们安装spark的时候,很多时候都会遇到这个问题,如何找到对应spark的各个组件的版本,找到比较标准的版本兼容信息。答案在spark源码中的pom文件。首先我们从官网下载源码。进入官网

[Bash shell] 纯文本查看 复制代码

?

(c)2006-2024 SYSTEM All Rights Reserved IT常识