Docker-Compose构建spark集群
Posted 绝域时空
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Docker-Compose构建spark集群相关的知识,希望对你有一定的参考价值。
0.前言
知道我的兄弟朋友们可能知道,我最近工作中,我们老大叫我利用Docker构建大数据开发环境。今天真的十分开心,我利用Docker-Compose构建出Kafka-Spark-mysql的云平台大数据开发环境,并利用自己撰写的spark streaming程序实现了实时数据的处理。
本篇文章主要介绍利用Docker-Compose构建出Spark的运行环境,和前面的Kafka和MySQL相似,本次搭建的Spark集群还是采用Bitnami的镜像进行构建。
1.单节点的Spark的构建
下面是利用Docker-Compose构建的Spark的单节点,生产环境不建议这样配置。下面是单节点的配置文件
version: '2'
services:
spark:
image: docker.io/bitnami/spark:3.3
ports:
- '8080:8080'
environment:
- SPARK_RPC_AUTHENTICATION_ENABLED=no
- SPARK_RPC_ENCRYPTION_ENABLED=no
- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
- SPARK_SSL_ENABLED=no
- SPARK_MASTER_URL=spark://spark:7077
- SPARK_WORKER_MEMORY=1G
- SPARK_WORKER_CORES=1
2.Spark一主两从节点的构建
2.1Docker-Compose配置文件
下面是Spark一主两从的节点配置脚本
version: '2'
services:
spark:
image: docker.io/bitnami/spark:3.3
environment:
- SPARK_MODE=master
- SPARK_RPC_AUTHENTICATION_ENABLED=no
- SPARK_RPC_ENCRYPTION_ENABLED=no
- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
- SPARK_SSL_ENABLED=no
ports:
- '8080:8080'
spark-worker-1:
image: docker.io/bitnami/spark:3.3
environment:
- SPARK_MODE=worker
- SPARK_MASTER_URL=spark://spark:7077
- SPARK_WORKER_MEMORY=1G
- SPARK_WORKER_CORES=1
- SPARK_RPC_AUTHENTICATION_ENABLED=no
- SPARK_RPC_ENCRYPTION_ENABLED=no
- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
- SPARK_SSL_ENABLED=no
spark-worker-2:
image: docker.io/bitnami/spark:3.3
environment:
- SPARK_MODE=worker
- SPARK_MASTER_URL=spark://spark:7077
- SPARK_WORKER_MEMORY=1G
- SPARK_WORKER_CORES=1
- SPARK_RPC_AUTHENTICATION_ENABLED=no
- SPARK_RPC_ENCRYPTION_ENABLED=no
- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
- SPARK_SSL_ENABLED=no
2.2 环境配置参数
下面是Spark集群搭建的一些可用变量:
- SPARK_MODE:集群模式启动 Apache Spark。有效值:主值、辅助角色。默认值:master
- SPARK_MASTER_URL:工作人员可以找到主节点的 URL。仅当spark模式为辅助角色时才需要。默认值:spark://spark-master:7077
- SPARK_RPC_AUTHENTICATION_ENABLED:启用 RPC 身份验证。默认值:no
- SPARK_RPC_AUTHENTICATION_SECRET:用于 RPC 身份验证的密钥。无默认值。
- SPARK_RPC_ENCRYPTION_ENABLED:启用 RPC 加密。默认值:no
- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED:启用本地存储加密:默false
- SPARK_SSL_ENABLED:启用 SSL 配置。默认值:
- SPARK_SSL_KEY_PASSWORD:密钥存储中私钥的密码。无默认值。
- SPARK_SSL_KEYSTORE_FILE:密钥存储的位置。默认值:/opt/bitnami/spark/conf/certs/spark-keystore.jks.
- SPARK_SSL_KEYSTORE_PASSWORD:密钥存储的密码。无默认值
- SPARK_SSL_TRUSTSTORE_PASSWORD:信任存储的密码。无默认值。
- SPARK_SSL_TRUSTSTORE_FILE:密钥存储的位置。默认值:/opt/bitnami/spark/conf/certs/spark-truststore.jks.
- SPARK_SSL_NEED_CLIENT_AUTH:是否需要客户端身份验证。默认值:是
- SPARK_SSL_PROTOCOL:要使用的 TLS 协议。默认值:TLSv1.2
- SPARK_DAEMON_USER:容器以 root 身份启动时的 Apache Spark 系统用户。默认值:spark
- SPARK_DAEMON_GROUP:容器以 root 身份启动时,Apache Spark 系统组。默认值:spark
以上是关于Docker-Compose构建spark集群的主要内容,如果未能解决你的问题,请参考以下文章
拆分版Docker-compose构建Elasticsearch 7.1.0集群