用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包相关的知识,希望对你有一定的参考价值。

参考技术A 在eclipse中,依次选择“File” –>“New” –> “Other…” –> “Scala Wizard” –> “Scala Project”,创建一个Scala工程,并命名为“SparkScala”。
右击“SaprkScala”工程,选择“Properties”,在弹出的框中,按照下图所示,依次选择“Java Build Path” –>“Libraties” –>“Add External JARs…”,导入文章“Apache Spark:将Spark部署到Hadoop 2.2.0上”中给出的
assembly/target/scala-2.9.3/目录下的spark-assembly-0.8.1-incubating- hadoop2.2.0.jar,这个jar包也可以自己编译spark生成,放在spark目录下的assembly/target/scala- 2.9.3/目录中。追问

assembly/target/scala-2.9.3/ 我找不到这个目录

以上是关于用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包的主要内容,如果未能解决你的问题,请参考以下文章

在执行spar-sql程序中报错:java.lang.NoSuchMethodError: org.apache.spark.internal.Logging.$init$(Lorg/apache/s

Spark- Spar架构原理

spark.implicits._ 导入了啥?

Cloudera Developer之Spark 及 Hadoop 开发员培训(CCA-175)

使用java开发spark的wordcount程序

走进大数据 | 如何在Mac上配置maven+eclipse+spark开发环境