spark伪分布式的安装
Posted IT小甲鱼
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark伪分布式的安装相关的知识,希望对你有一定的参考价值。
不依赖hadoop
百度分享安装包地址:http://pan.baidu.com/s/1dD4BcGT 点击打开链接
解压 并重命名:
进入spark100目录:
修改配置:
Cd conf
配置单击节点,故只需要写本机的hostname就可以了。
重命名Spark-env.sh.template 为 spark-env.sh
增加配置项:
- export SPARK_MASTER_IP=icity1
- export SPARK_MASTER_PORT=7077
- export SPARK_WORKER_CORES=1
- export SPARK_WORKER_INSTANCES=1
- export SPARK_WORKER_MEMORY=1g
- export JAVA_HOME=/jdk/jdk1.7.0_65(提前配置好java环境)
如图所示:
启动
监控页面效果:
进入spark-shell:(运行完后点击回车键就可以写scala代码)
选用了外部文件:
区别于hdfs的读取方式:
退出spark-shell:exit
- 顶
以上是关于spark伪分布式的安装的主要内容,如果未能解决你的问题,请参考以下文章
大数据分析Hadoop + Spark 10分钟搭建Hadoop(伪分布式 )+ Spark(Local模式)环境
有米实习-Ubuntu 14.04 LTS 安装 spark 1.6.0 (伪分布式)