Spark中的local模式的配置以及测试

Posted 曹军

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark中的local模式的配置以及测试相关的知识,希望对你有一定的参考价值。

一:介绍

1.Spark的模式

  Local:本地运行模式,主要用于开发、测试
  Standalone:使用Spark自带的资源管理框架运行Spark程序,30%左右
  Yarn: 将spark应用程序运行在yarn上,绝大多数使用情况,60%左右,因为已经有了一个hadoop框架,就不再再搭建standalone框架了
  Mesos:

 

二:Local模式安装

1.解压

  使用自己编译产生的tgz压缩包。

  

 

2.建立软连接

  

 

3.复制配置文件

  

 

4.修改env.sh文件

  

 

 三:运行测试

1.启动HDFS

  

 

2.准备测试路径

  

 

3.开始测试  

  ./run-example SparkPi 10<----------------10代表迭代的次数

  

 

4.shell的测试

  

 

5.shell效果

  

 

四:问题(HDFS问啥要启动的问题)

1.HDFS启动的原因

  如果不启动HDFS,在./spark-shell的时候会出现错误。

  

2.不启动HDFS会出现的问题

  

 

3.下面的配置是真正的spark local,不再需要考虑hadoop

  

4.启动./spark-shell

  没有其他服务。

  

  可以成功启动。

  

 

五:页面

1.程序示例

  这个是后来的补充。

1 sc.textFile("/user/beifeng/mapreduce/wordcount/input/wc.input").
2 filter(_.length>0).
3 flatMap(_.split(" ").map((_,1))).
4 groupByKey().
5 map(tuple=>(tuple._1,tuple._2.toList.sum)).
6 collect()

 

2.4040端口可以访问

  

  点进去:

  

 

 

  

 

以上是关于Spark中的local模式的配置以及测试的主要内容,如果未能解决你的问题,请参考以下文章

(超详细) Spark环境搭建(Local模式 StandAlone模式Spark On Yarn模式)

大数据技术之Spark ——Spark运行模式(local+standalone+yarn)

Flink的local模式部署安装

在 Spark 本地模式下包含包

Spark的运行模式--Local和Standalone

Spark 运行的4种模式