windows下安装spark
Posted twodoge
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了windows下安装spark相关的知识,希望对你有一定的参考价值。
1、安装jdk
2、安装scala
3、下载spark
3.1安装spark
- 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:Program Files
- 作者解压到了这里,
- 将spark的bin路径添加到path中
- cmd输入spark-shell,成功安装啦,有个报错是因为还没安装Hadoop,
4、安装hadoop
由于spark版本为spark-2.3.3-bin-hadoop2.7,我们选择下2.8.5版本的Hadoop
hadoop下载地址
- 解压
- 添加环境变量,新建一个HADOOP_HOME
- 在path添加
到此运行spark-shell还会有没安装的时候那个报错,接下来需要替代Hadoop里的bin文件来解决这个错。
5、下载winutils
- 下载地址
- 笔者用的是hadoop2.8.5版本的,下载的winutils上hadoop2.8.3版本的bin,实测也是可行的。
接下来将bin替换原来Hadoop中的bin
6、运行spark-shell成功啦
以上是关于windows下安装spark的主要内容,如果未能解决你的问题,请参考以下文章
Windows环境下在IDEA编辑器中spark开发安装步骤
Windows 下 Spark+Hadoop+Scala 安装