eclipse编写scala应用运行在spark集群上

Posted 薛定谔的猫!

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了eclipse编写scala应用运行在spark集群上相关的知识,希望对你有一定的参考价值。

代码

package spark_1
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
class WorkCountTest {
//自定义函数 def jiSuan(){ //数据文件路径
var loadFile="hdfs://服务器ip:8020/tmp/dataTest/Z";
  //初始化sparkContext
var conf=new SparkConf(); conf.setAppName("workCountZhangxs"); conf.setMaster("spark://服务器ip:7077") var sc=new SparkContext(conf);
//从hdfs上读取文件
var fileRdd=sc.textFile(loadFile, 2);
//过滤出包含执行的字符("yao")
var countRdd=fileRdd.filter(line=>line.contains("yao"));
//计算出count
var countF=countRdd.count(); println(countF) sc.stop(); } } object mainA{ def main(args: Array[String]) {
  //初始化类
var t=new WorkCountTest();
  //调用计算函数 t.jiSuan(); } }

输出结果

以上是关于eclipse编写scala应用运行在spark集群上的主要内容,如果未能解决你的问题,请参考以下文章

01-spark简介spark部署方式spark运行方式

spark学习进度1

在eclipse 中运行scala程序 报错如下:

在Windows下用Eclipse开发和运行Spark程序

在Windows下用Eclipse开发和运行Spark程序

spark学习进度5-利用开发工具IntelliJ IDEA编写Spark应用程序(Scala+Maven)