spark.debug.maxToStringFields 不起作用
Posted
技术标签:
【中文标题】spark.debug.maxToStringFields 不起作用【英文标题】:spark.debug.maxToStringFields doesn't work 【发布时间】:2021-06-23 21:32:44 【问题描述】:我尝试按照消息WARN Utils: Truncated the string representation of a plan since it was too large. This behavior can be adjusted by setting 'spark.debug.maxToStringFields' in SparkEnv.conf.
中的说明设置"spark.debug.maxToStringFields"
。请在下面找到代码
val sparkConf= new SparkConf()
//here
sparkConf.set("spark.debug.maxToStringFields", "100000")
sparkConf.set("spark.sql.debug.maxToStringFields", "100000")
val spark = SparkSession.builder.config(sparkConf).getOrCreate()
//here
spark.conf.set("spark.debug.maxToStringFields", 100000)
spark.conf.set("spark.sql.debug.maxToStringFields", 100000)
val data = spark.read
.option("header", "true")
.option("delimiter", "|")
.format("csv")
.csv(path_to_csv_file)
.toDF()
.repartition(col("country"))
data.rdd.toDebugString
我只得到带有上述警告消息的 toDebugString 的部分输出。如您所见,我已经尝试了这两种选择。为什么不打印完整的 RDD Lineage?
【问题讨论】:
嗨,你能在这里检查一下吗:programcreek.com/scala/org.apache.spark.SparkEnv。我认为您必须将值设置为: val sparkenv = SparkEnv.get sparkenv.conf.set("spark.oap.cache.strategy", "not_support_cache") 【参考方案1】:你能在这里检查一下吗:
https://www.programcreek.com/scala/org.apache.spark.SparkEnv
我认为你必须像这样设置值
val sparkenv = SparkEnv.get sparkenv.conf.set("spark.oap.cache.strategy", "not_support_cache")
【讨论】:
以上是关于spark.debug.maxToStringFields 不起作用的主要内容,如果未能解决你的问题,请参考以下文章