Notebook Docker 安装spark环境

Posted leechg

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Notebook Docker 安装spark环境相关的知识,希望对你有一定的参考价值。

环境

 

 

Notebook docker环境

https://registry.hub.docker.com/r/jupyter/datascience-notebook/

 

 

 

下载安装包

spark安装包

http://mirror.bit.edu.cn/apache/spark/spark-3.0.0/spark-3.0.0-bin-hadoop3.2.tgz

 

pyspark安装包

http://mirror.bit.edu.cn/apache/spark/spark-3.0.0/pyspark-3.0.0.tar.gz

 

Py4j安装包

https://pypi.org/simple/py4j/

下载0.10.9版本

 

JDK安装包

Jdk 1.8

 

安装

 

spark环境安装

 

解压spark-3.0.0-bin-hadoop3.2.tgz 至 /var/spark目录,配置docker环境变量

SPARK_HOME=/var/spark/spark-3.0.0-bin-hadoop3.2

 

 

Java 环境安装

 

解压jdk至/var/spark/jdk1.8.0_191

配置环境变量

JAVA_HOME=/var/spark/jdk1.8.0_191

PATH=%PATH%:/var/spark/jdk1.8.0_191/bin

 

Pyspark安装

解压pyspark-3.0.0 并跳转至pyspark-3.0.0目录,执行python setup.py install,执行安装,默认会自动安装py4j,如果自动安装失败,手动安装上一步下载的py4j安装包再次执行python setup.py install命令

 

测试

新建python文件

from pyspark import SparkContext     
from pyspark.sql import SparkSession 
from pyspark.sql.types import StructType, StructField, LongType, StringType
from pyspark.sql import Row
from pyspark.sql import Column
import pandas as pd
import numpy as np

spark=SparkSession .builder .appName(newapp) .getOrCreate()

stringCSVRDD = spark.sparkContext.parallelize([
                    (123, "Katie", 19, "brown"),
                    (456, "Michael", 22, "green"),
                    (789, "Simone", 23, "blue")])
schema = StructType([StructField("id", LongType(), True),
                        StructField("name", StringType(), True),
                        StructField("age", LongType(), True),
                        StructField("eyeColor", StringType(), True)])
swimmers = spark.createDataFrame(stringCSVRDD,schema)
swimmers.registerTempTable("swimmers")
# 使用Sql语句
data=spark.sql("select * from swimmers")
# 将数据转换List,这样就可以查看dataframe的数据元素的样式
print(data.collect())
# 以表格形式展示数据
data.show()

 

技术图片

 

 

 

 

 

以上是关于Notebook Docker 安装spark环境的主要内容,如果未能解决你的问题,请参考以下文章

如何在windows下安装配置pyspark notebook

安装 Spark 问题。无法使用 pyspark 打开 IPython Notebook

利用docker搭建spark hadoop workbench

极智开发 | docker内安装jupyter notebook的正确姿势

设置了SPARK_HOME env变量,但Jupyter Notebook没有看到它。 (视窗)

jupyter notebook 怎么跑pyspark