是否可以让 Spark 在单个执行程序上运行整个任务集?

Posted

技术标签:

【中文标题】是否可以让 Spark 在单个执行程序上运行整个任务集?【英文标题】:Is it possible to make Spark run whole Taskset on a single executor? 【发布时间】:2018-03-08 14:07:54 【问题描述】:

我在本地集群(1 个 master-2workers/executors)上运行一个 spark 作业。

据我所知,工作的所有阶段都分为任务。每个阶段都有自己的任务集。这个TaskSet的每一个任务都会被调度到本地集群的一个executor上。

我想让 Spark 的 TaskSetManager 在同一个(本地)执行器上调度一个 TaskSet(单个阶段)的所有任务,但我还没有想出如何去做。

谢谢, 吉姆

【问题讨论】:

你为什么要这样做?你不想并行处理? 我想了解它是如何工作的,以便在执行程序上插入我的任务调度策略。 我想从 spark 中获得控制权,并成为决定哪个执行者将执行阶段的每个任务的人。 我不确定这是否可配置,但您可以随时阅读任务管理器实现 here 【参考方案1】:

提交作业时,提供执行者的数量为一个

【讨论】:

感谢您的回答 Kiran,但我想干预 Spark-core 以应用上述执行计划。

以上是关于是否可以让 Spark 在单个执行程序上运行整个任务集?的主要内容,如果未能解决你的问题,请参考以下文章

替代递归运行Spark-submit作业

是否可以在已经运行的 java 进程中生成 Spark 执行程序(Ignite JVM)

Spark内部执行机制

Spark 执行模型与性能调优,文末留言免费获取《Spark:大数据集群计算的生产实践》

spark可以在windows下运行吗

在 Spark 执行器节点上安装 Python 依赖项的最简单方法是啥?