spark-shell - 如何避免抑制省略堆栈跟踪(异常)
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-shell - 如何避免抑制省略堆栈跟踪(异常)相关的知识,希望对你有一定的参考价值。
我试图从spark-shell运行我的scala文件。这个文件调用了一些其他的jar文件,这些文件已经被加载到spark-context中。
问题是如果有什么故障,它只打印堆栈跟踪的部分。有什么办法可以让整个stacktrace打印出来吗?
myclassn: ClassifyFields : queryDb -> Problems extracting from DB
at myclass.queryDb(ClassifyFields.java:231)
at myclass.getColumnsWithKeys(ClassifyFields.java:258)
... 78 elided
答案
将下面的值设置为零。
vals.isettings.maxPrintString=0
就像下面的例子
scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._
scala> vals.isettings.maxPrintString
res0: Int = 800
scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0
scala> vals.isettings.maxPrintString
res1: Int = 0
或在异常发生后使用以下方法
lastException.printStackTrace
以上是关于spark-shell - 如何避免抑制省略堆栈跟踪(异常)的主要内容,如果未能解决你的问题,请参考以下文章
numpy使用np.printoptions函数抑制numpy对于长numpy数组的自动省略显示numpy数组中的所有数据
在 App::abort(403) 之后抑制 Laravel 日志中的堆栈跟踪转储
通过map文件了解堆栈分配(STM32MDK5)--避免堆栈溢出