spark 与 Hadoop 融合后启动 slf4j提示Class path contains multiple SLF4J bindings

Posted Hello_BeautifulWorld

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark 与 Hadoop 融合后启动 slf4j提示Class path contains multiple SLF4J bindings相关的知识,希望对你有一定的参考价值。

相关参考文献:

https://www.oschina.net/question/93435_174549

 

 

警告信息如下:

 

 

 

看起来明明就是一个文件,怎么还提示multiple bindings呢,slf4j这货一直没用明白,求解

 

 

 

 

 

 

 

其它参考文献:

http://www.slf4j.org/news.html 

August 19th, 2011 - Release of SLF4J 1.6.2

 

 

本文解决方法:

find ./ -name "slf4j*"

分别找出 hadoop 和 spark 下  SLF4J  位置。

 

 

将 SPARK  下的 SLF4J  改名, 加后缀  .bak

 

以上是关于spark 与 Hadoop 融合后启动 slf4j提示Class path contains multiple SLF4J bindings的主要内容,如果未能解决你的问题,请参考以下文章

spark启动后出现“JAVA_HOME not set” 异常和"org.apache.hadoop.security.AccessControlException"异常

spark-shell启动失败

报名|Hadoop与Spark大数据开发与案例分析”实战培训班

Spark集群启动后进程的简单介绍

sprak core-2.1.0安装与启动

了解 Spark 与 Hadoop