利用docker 部署 spark项目的端口问题
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了利用docker 部署 spark项目的端口问题相关的知识,希望对你有一定的参考价值。
利用Docker 安装项目:
local模式要设置sparklocal.spark.driver.host
yarn模式中只设置sparklocal.spark.driver.host和可以启动,但是无法执行任何语句,需要再设置
sparkyarn.spark.driver.bindAddress
和 blockmanager
即可,在spark启动时指定对应host和bindaddress,docker指定访问设定的host和bindAddress
和 blockmanager即可
注意:sparkyarn.spark.driver.bindAddress 是spark2.1.0才有的参数,之前是没有的。所以说,在2.1.0之前,spark与docker结合,以上办法行不通。
本文出自 “去买大白兔” 博客,转载请与作者联系!
以上是关于利用docker 部署 spark项目的端口问题的主要内容,如果未能解决你的问题,请参考以下文章
在 Docker Swarm 上部署 Spark 和 HDFS 不会启用数据本地化
使用docker安装部署Spark集群来训练CNN(含Python实例)