用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包相关的知识,希望对你有一定的参考价值。
参考技术A 在eclipse中,依次选择“File” –>“New” –> “Other…” –> “Scala Wizard” –> “Scala Project”,创建一个Scala工程,并命名为“SparkScala”。右击“SaprkScala”工程,选择“Properties”,在弹出的框中,按照下图所示,依次选择“Java Build Path” –>“Libraties” –>“Add External JARs…”,导入文章“Apache Spark:将Spark部署到Hadoop 2.2.0上”中给出的
assembly/target/scala-2.9.3/目录下的spark-assembly-0.8.1-incubating- hadoop2.2.0.jar,这个jar包也可以自己编译spark生成,放在spark目录下的assembly/target/scala- 2.9.3/目录中。追问
assembly/target/scala-2.9.3/ 我找不到这个目录
以上是关于用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包的主要内容,如果未能解决你的问题,请参考以下文章
在执行spar-sql程序中报错:java.lang.NoSuchMethodError: org.apache.spark.internal.Logging.$init$(Lorg/apache/s