IDEA开发scala版本的spark程序

Posted braveym

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了IDEA开发scala版本的spark程序相关的知识,希望对你有一定的参考价值。

技术图片

 

 

技术图片

 

 

package com.gong

import org.apache.spark.{SparkConf, SparkContext}

object MyScalaWorldCount {
  def main(args: Array[String]): Unit = {
        //参数检测
        if(args.length<2){
          System.err.println("Usage: MyScalaWorldCount <input> <output>")
          System.exit(1)
        }

       //创建SparkContext
       val conf = new SparkConf().setAppName("MyScalaWorldCount")
       conf.setMaster("local[2]")
       val sc = new SparkContext(conf)

     //读取数据
    val lines=sc.textFile(args(0))

    //进行相关计算
    val resultRDD = lines.flatMap(_.split("s+")).map((_,1)).reduceByKey(_+_)

    //保存结果
    resultRDD.saveAsTextFile(args(1))

    sc.stop()
  }
}

 

 

 

运行程序可以看到报错,因为没有传入输入输出路径

技术图片

 

 

 

 

传入参数

技术图片

 

 

 

技术图片

 

 

 

运行程序

技术图片

 

 

 

技术图片

 

以上是关于IDEA开发scala版本的spark程序的主要内容,如果未能解决你的问题,请参考以下文章

spark windows idea开发环境搭建

IDEA搭建scala开发环境开发spark应用程序

IDEA开发Spark应用实战(Scala)

安装 IDEA 安装 Scala 插件以及导入 Spark 源码

spark关于使用idea来编辑scala程序使用spark的问题

Spark机器学习速成宝典基础篇01Windows下spark开发环境搭建+sbt+idea(Scala版)