Apache Spark和Livy集群

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Apache Spark和Livy集群相关的知识,希望对你有一定的参考价值。

场景:

  • 我有火花簇和 我也想用Livy。
  • 我是Livy的新人

问题:

  • 我使用docker swarm和我建立了我的火花星团 我还将为Livy创建一项服务。
  • Livy可以与外部火花大师沟通并将工作发送给外部火花大师吗? 如果没问题,需要进行哪种配置? 或者Livy应该安装在spark主节点上?
答案

我觉得有点晚了,但我希望这会对你有所帮助。

抱歉我的英语,但我是墨西哥人,你可以使用docker通过livy发送工作,但你也可以使用livy发送工作扔Livy REST API。

livy服务器可以在spark集群之外,你只需要发送一个conf文件给livy指向你的spark集群。

它看起来你运行spark独立,简单的方式来配置livy工作是livy生活在spark主节点上,如果你已经在你的集群机器上有YARN,你可以在任何节点上安装livy并在yarn-cluster中运行spark应用程序或者纱线客户模式。

以上是关于Apache Spark和Livy集群的主要内容,如果未能解决你的问题,请参考以下文章

为啥 Apache Livy 会话显示应用程序 id 为 NULL?

如何在 Apache livy 中提交 pyspark 作业?

使用apache livy导致的结果集不一致问题记录

使用apache livy导致的结果集不一致问题记录

Livy原理详解

使用 Livy 作为 OS 用户运行 spark 程序