Hadoop-3.0.0 与旧版本 Hive、Pig、Sqoop 和 Spark 的兼容性如何
Posted
技术标签:
【中文标题】Hadoop-3.0.0 与旧版本 Hive、Pig、Sqoop 和 Spark 的兼容性如何【英文标题】:How is Hadoop-3.0.0 's compatibility with older versions of Hive, Pig, Sqoop and Spark 【发布时间】:2017-12-21 07:31:57 【问题描述】:我们目前在 10 节点集群上使用 hadoop-2.8.0
,并计划升级到最新的 hadoop-3.0.0
。
我想知道如果我们将hadoop-3.0.0
与旧版本的 Spark 和其他组件(例如 Hive、Pig 和 Sqoop)一起使用会不会有任何问题。
【问题讨论】:
最新的 Spark 2.2.1 不支持 Hadoop 3.0.0。 @JacekLaskowski ,它抛出什么类型的异常? .我在spark
的下载页面上读到它适用于hadoop
2.7 版及更高版本。 spark
和 hadoop
的最新版本不兼容,这不难理解!
不幸的是我不知道具体情况。
【参考方案1】:
最新的Hive版本不支持Hadoop3.0。看来以后Hive可能会建立在Spark或者其他计算引擎上。
【讨论】:
是的,性能方面,hive 在 spark 上运行时比 hadoop 快得多。以上是关于Hadoop-3.0.0 与旧版本 Hive、Pig、Sqoop 和 Spark 的兼容性如何的主要内容,如果未能解决你的问题,请参考以下文章
hadoop-3.0.0-beta1运维手册(003):安装全分布式HDFS3.0.0-准备软件
Apache Hadoop 3.0.0-alpha1,重写 Shell 脚本