遇到的问题---spark---spark OutOfMemoryError: Java heap space

Posted 张小凡vip

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了遇到的问题---spark---spark OutOfMemoryError: Java heap space相关的知识,希望对你有一定的参考价值。

情况

使用命令运行spark任务

$SPARK_HOME/bin/spark-submit --jars $SPARK_HOME/jars/mongo-spark-connector_2.11-2.4.2.jar,$SPARK_HOME/jars/mongo-java-driver-3.12.5.jar  --conf spark.executor.memory=6g --conf spark.executor.cores=8 --conf spark.executor.instances=4 --conf spark.driver.memory=5g --class com.test.insightdiscovery.upload.PushArticleUpload /tmp/InsightDiscovery-thinking.jar

运行到最后shuffle阶段时报错java.lang.OutOfMemoryError: Java heap space如下:

sh_operator.py:126} INFO - 21/05/19 22:06:05 WARN TaskSetManager: Lost task 1.1 in stage 3.0 (TID 240, 10.50.28.198, executor 1): org.apache.spark.SparkException: Task failed while writing rows.
[2021-05-19 22:06:05,902] {bash_operator.py:126} INFO - 	at org.apache.spark.sql.execution.datasources.FileFormatWriter$.org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask(FileFormatWriter.scala:257)
[2021-05-19 22:06:05,903] {bash_operator.py:

以上是关于遇到的问题---spark---spark OutOfMemoryError: Java heap space的主要内容,如果未能解决你的问题,请参考以下文章

遇到的问题---spark---spark OutOfMemoryError: Java heap space

spark 编译遇到的错误及解决办法

获取 IllegalArgumentException

PySpark 一次性对分区执行第一个和最后一个函数

spark科普

科普Spark,Spark是什么,如何使用Spark