为啥 Zeppelin-Spark 解释器没有挂载 Kubernetes 服务帐户

Posted

技术标签:

【中文标题】为啥 Zeppelin-Spark 解释器没有挂载 Kubernetes 服务帐户【英文标题】:Why is Zeppelin-Spark interpreter not mounting Kubernetes Service Account为什么 Zeppelin-Spark 解释器没有挂载 Kubernetes 服务帐户 【发布时间】:2020-10-14 05:56:51 【问题描述】:

我在 Kubernetes 集群上部署了 Zeppelin (0.8.2),并且在容器中打包了 Spark (2.4.0) 二进制文件。然后我将$SPARK_HOME设置为Spark安装目录。 spark解释器似乎可以工作,但是当我尝试更改serviceAccount时,它仍然使用default

这是我基于Spark 2.4.0 docs尝试的配置:

spark.kubernetes.authenticate.driver.serviceAccountName <my_serviceAccount>
spark.kubernetes.authenticate.serviceAccountName        <my_serviceAccount> 

我尝试通过$SPARK_SUBMIT_OPTIONS、Zeppelin Interpreter Settings 和spark-defaults.conf 进行设置,但它们都给出了相同的结果。我错过了什么吗?

任何帮助将不胜感激。谢谢!

【问题讨论】:

【参考方案1】:

我可以通过添加.pod.spec.serviceAccountName 来使用非默认服务帐户。提供了一些关于如何做到这一点的链接。

[1]How to configure a non-default serviceAccount on a deployment [2]https://kubernetes.io/docs/tasks/configure-pod-container/configure-service-account/

【讨论】:

以上是关于为啥 Zeppelin-Spark 解释器没有挂载 Kubernetes 服务帐户的主要内容,如果未能解决你的问题,请参考以下文章

Linux中挂载是啥意思?为啥要挂载呢?又为啥要改变挂载点呢?

linux 设好fstab 要开机自动挂载其他服务器上的nfs共享,为啥没有自动挂载?

我Linux 中挂载光驱 输入命令 mount/mnt/cdrom 为啥 显示 没有那个目录

linux中为啥没有dev下的光驱设备文件

谁来解释下,为啥192.167.1.1会成为某些路由器的ip地址???192.167.1.1不属于保留地址啊,怎么回事啊

unity脚本挂载不了???而且我根据教材为啥一个简单的都不行