Docker-Compose构建spark集群

Posted 绝域时空

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Docker-Compose构建spark集群相关的知识,希望对你有一定的参考价值。

0.前言

知道我的兄弟朋友们可能知道,我最近工作中,我们老大叫我利用Docker构建大数据开发环境。今天真的十分开心,我利用Docker-Compose构建出Kafka-Spark-mysql的云平台大数据开发环境,并利用自己撰写的spark streaming程序实现了实时数据的处理。
本篇文章主要介绍利用Docker-Compose构建出Spark的运行环境,和前面的Kafka和MySQL相似,本次搭建的Spark集群还是采用Bitnami的镜像进行构建。

1.单节点的Spark的构建

下面是利用Docker-Compose构建的Spark的单节点,生产环境不建议这样配置。下面是单节点的配置文件

version: '2'

services:
  spark:
    image: docker.io/bitnami/spark:3.3
    ports:
      - '8080:8080'
    environment:
      - SPARK_RPC_AUTHENTICATION_ENABLED=no
      - SPARK_RPC_ENCRYPTION_ENABLED=no
      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
      - SPARK_SSL_ENABLED=no
      - SPARK_MASTER_URL=spark://spark:7077
      - SPARK_WORKER_MEMORY=1G
      - SPARK_WORKER_CORES=1

2.Spark一主两从节点的构建

2.1Docker-Compose配置文件

下面是Spark一主两从的节点配置脚本

version: '2'

services:
  spark:
    image: docker.io/bitnami/spark:3.3
    environment:
      - SPARK_MODE=master
      - SPARK_RPC_AUTHENTICATION_ENABLED=no
      - SPARK_RPC_ENCRYPTION_ENABLED=no
      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
      - SPARK_SSL_ENABLED=no
    ports:
      - '8080:8080'
  spark-worker-1:
    image: docker.io/bitnami/spark:3.3
    environment:
      - SPARK_MODE=worker
      - SPARK_MASTER_URL=spark://spark:7077
      - SPARK_WORKER_MEMORY=1G
      - SPARK_WORKER_CORES=1
      - SPARK_RPC_AUTHENTICATION_ENABLED=no
      - SPARK_RPC_ENCRYPTION_ENABLED=no
      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
      - SPARK_SSL_ENABLED=no
  spark-worker-2:
    image: docker.io/bitnami/spark:3.3
    environment:
      - SPARK_MODE=worker
      - SPARK_MASTER_URL=spark://spark:7077
      - SPARK_WORKER_MEMORY=1G
      - SPARK_WORKER_CORES=1
      - SPARK_RPC_AUTHENTICATION_ENABLED=no
      - SPARK_RPC_ENCRYPTION_ENABLED=no
      - SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no
      - SPARK_SSL_ENABLED=no

2.2 环境配置参数

下面是Spark集群搭建的一些可用变量:

  • SPARK_MODE:集群模式启动 Apache Spark。有效值:主值、辅助角色。默认值:master
  • SPARK_MASTER_URL:工作人员可以找到主节点的 URL。仅当spark模式为辅助角色时才需要。默认值:spark://spark-master:7077
  • SPARK_RPC_AUTHENTICATION_ENABLED:启用 RPC 身份验证。默认值:no
  • SPARK_RPC_AUTHENTICATION_SECRET:用于 RPC 身份验证的密钥。无默认值。
  • SPARK_RPC_ENCRYPTION_ENABLED:启用 RPC 加密。默认值:no
  • SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED:启用本地存储加密:默false
  • SPARK_SSL_ENABLED:启用 SSL 配置。默认值:
  • SPARK_SSL_KEY_PASSWORD:密钥存储中私钥的密码。无默认值。
  • SPARK_SSL_KEYSTORE_FILE:密钥存储的位置。默认值:/opt/bitnami/spark/conf/certs/spark-keystore.jks.
  • SPARK_SSL_KEYSTORE_PASSWORD:密钥存储的密码。无默认值
  • SPARK_SSL_TRUSTSTORE_PASSWORD:信任存储的密码。无默认值。
  • SPARK_SSL_TRUSTSTORE_FILE:密钥存储的位置。默认值:/opt/bitnami/spark/conf/certs/spark-truststore.jks.
  • SPARK_SSL_NEED_CLIENT_AUTH:是否需要客户端身份验证。默认值:是
  • SPARK_SSL_PROTOCOL:要使用的 TLS 协议。默认值:TLSv1.2
  • SPARK_DAEMON_USER:容器以 root 身份启动时的 Apache Spark 系统用户。默认值:spark
  • SPARK_DAEMON_GROUP:容器以 root 身份启动时,Apache Spark 系统组。默认值:spark

以上是关于Docker-Compose构建spark集群的主要内容,如果未能解决你的问题,请参考以下文章

拆分版Docker-compose构建Elasticsearch 7.1.0集群

Loki生产环境集群方案

使用Docker-compose搭建consul集群环境

使用Docker-compose搭建consul集群环境

Spark亚太研究院系列丛书Spark实战高手之路-第一章 构建Spark集群(第五步)

spark的四种部署模式对比