为啥会出现纱线内存错误?

Posted

技术标签:

【中文标题】为啥会出现纱线内存错误?【英文标题】:Why do I get a yarn memory error?为什么会出现纱线内存错误? 【发布时间】:2018-06-02 18:41:08 【问题描述】:

在 HDP 2.6.3、Spark 2.2 和 Zeppelin 0.7.3 中出现此错误:

java.lang.IllegalArgumentException: Required executor memory (12288+384 MB) is above 
the max threshold (8192 MB) of this cluster! Please check the values of 
'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.

yarn.nodemanager.resource.memory-mb 最大 (8GB)。

我有 4 个节点,每个节点 16GB,所以我有 yarn.scheduler.maximum-allocation-mb = 14.25GB。

我试过了:

export ZEPPELIN_JAVA_OPTS="-Dspark.executor.memory=2g -Dspark.cores.max=7"

没有运气。

问题是12288,我该如何减少它? 蒂亚!

【问题讨论】:

【参考方案1】:

您可以随时提出yarn.nodemanager.resource.memory-mb,它应该与yarn.scheduler.maximum-allocation-mb 相同。 8 GB 是默认值,而不是最大值。

【讨论】:

以上是关于为啥会出现纱线内存错误?的主要内容,如果未能解决你的问题,请参考以下文章

为啥会出现错误:“InternalCompilerError:请求的静态内存负载超过 32 个字节”?

为啥 npm list 在添加纱线后会显示缺失和无关的错误?

为啥我的 .gitlab-ci.yml 在纱线测试中不断失败,并出现错误“/bin/sh: 1: react-scripts: not found”?

为啥每次关机的时候内存都会报错?高手来帮下

C程序为啥会崩溃?

为啥我会在一个很小的 ​​df 上使用 fast_executemany 出现内存错误?