IDE的使用,打包spark应用提交

Posted 正义飞

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了IDE的使用,打包spark应用提交相关的知识,希望对你有一定的参考价值。

hadoop,spark,kafka交流群:224209501

标签(空格分隔): spark

1,首先启动

cd /opt/modules/idea-IC-141.178.9/
bin/idea.sh 

2,导入scala插件





3,导入spark源码











4,创建scala工程














5,导出jar包






6,示例代码

前提是
1,启动hdfs的namenode,datanode。
2,启动spark的master和slaves,本地测试无需启动。

package sparkIDEProgram
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
/**
 * Created by hadoop on 1/1/16.
 */
object SimpleApp 
  def main(args: Array[String]) 
    val logFile = "hdfs://spark.learn.com:8020/user/hadoop/spark/input/wc.input" // Should be some file on your system
    val conf = new SparkConf()
        .setAppName("Simple Application")
        .setMaster("spark://spark.learn.com:7077")//本地测试需要修改为local
    val sc = new SparkContext(conf)
    val logData = sc.textFile(logFile, 2).cache()
    val numAs = logData.filter(line => line.contains("a")).count()
    val numBs = logData.filter(line => line.contains("b")).count()
    println("Lines with a: %s, Lines with b: %s".format(numAs, numBs))
    sc.stop()
  

7,提交打包好的应用

bin/spark-submit /opt/sparkTest/sparkTest.jar



以上是关于IDE的使用,打包spark应用提交的主要内容,如果未能解决你的问题,请参考以下文章

spark使用idea以client模式提交应用到standalone集群

spark配置-独立应用程序

独立运行spark应用程序与spark提交/spark启动器之间的区别?

Spark之本地部署,编译打包以及远程提交

Spark学习之第一个程序打包提交任务到集群

Spark学习之第一个程序打包提交任务到集群