0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决

Posted Hadoop实操

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决相关的知识,希望对你有一定的参考价值。

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。


Fayson的github:

​https://github.com/fayson/cdhproject​


提示:代码块部分可以左右滑动查看噢


1

编译异常


在Spark2代码中使用hbase-spark依赖包访问HBase时,编写的代码无法完成编译,在编译的过程中提示如下错误:

Error:scalac: missing or invalid dependency detected while loading class file HBaseContext.class.

Could not access type Logging in package org.apache.spark,

because it (or its dependencies) are missing. Check your build definition for

missing or conflicting dependencies. (Re-run with `-Ylog-classpath` to see the problematic classpath.)

A full rebuild may help if HBaseContext.class was compiled against an incompatible version of org.apache.spark.

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_apache

运行工程编译命令时提示“Could not access type Logging in package org.apache.spark”


2

问题分析


经过查看资料找到HBase官网的一个JIRA,地址:

​https://issues.apache.org/jira/browse/HBASE-16428​

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_hadoop_02

JIRA中找到在代码中引用了HBaseContext时,使用Spark2编译Spark应用程序将会失败,因为HBaseContext模块引用了org.apache.spark.Logging。在Spark2中,由于Logging被移动到一个私有的包下导致。同样也有Spark2的一个JIRA说明该问题:

​https://issues.apache.org/jira/browse/SPARK-13928​

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_apache_03


3

问题解决


为了完成编译,这里Fayson使用如下做法解决该问题:

1.在自己的工程下创建一个org.apache.spark的包

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_spark_04


2.在org.apache.spark包下创建一个Trait类型的Logging.scala类型,该类的内容通过Spark2源码找到

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_hadoop_05

将spark-core工程下org.apache.spark.internal.Logging类内容拷贝至我们工程下创建的org.apache.spark.Logging类中。

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_apache_06


4.完成上述操作后,再次执行编译,可以正常的完成编译

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_spark_07


4

总结


1.通过异常分析,由于Logging类在Spark2中私有化了,那在自己的工程中创建重写一个Logging类方式解决该问题。


2.Logging类的内容要确保与对应Spark2版本代码一致,避免造成一些莫名其妙的问题。


提示:代码块部分可以左右滑动查看噢


为天地立心,为生民立命,为往圣继绝学,为万世开太平。

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。



推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决_hadoop_08

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

以上是关于0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决的主要内容,如果未能解决你的问题,请参考以下文章

无法推送到 Heroku '致命:无法访问..无法解析主机:(无);提供节点名或服务名,或未知'

无法写入内容:无法延迟初始化角色集合,无法初始化代理 - 无会话

chrome和ie无法打开网页,也无法连接WIFI

windows7管理员文件无法运行 无法访问指定设备 路径或文件

phantomjs无法打开共享对象文件

SMTP 错误:无法验证。无法发送消息。邮件程序错误:SMTP 错误:无法验证