spark-shell - 如何避免抑制省略堆栈跟踪(异常)

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-shell - 如何避免抑制省略堆栈跟踪(异常)相关的知识,希望对你有一定的参考价值。

我试图从spark-shell运行我的scala文件。这个文件调用了一些其他的jar文件,这些文件已经被加载到spark-context中。

问题是如果有什么故障,它只打印堆栈跟踪的部分。有什么办法可以让整个stacktrace打印出来吗?

myclassn: ClassifyFields : queryDb -> Problems extracting from DB
  at myclass.queryDb(ClassifyFields.java:231)
  at myclass.getColumnsWithKeys(ClassifyFields.java:258)
  ... 78 elided
答案

将下面的值设置为零。

vals.isettings.maxPrintString=0

就像下面的例子

scala> :power
Power mode enabled. :phase is at typer.
import scala.tools.nsc._, intp.global._, definitions._
Try :help or completions for vals._ and power._

scala> vals.isettings.maxPrintString
res0: Int = 800

scala> vals.isettings.maxPrintString=0
vals.isettings.maxPrintString: Int = 0

scala> vals.isettings.maxPrintString
res1: Int = 0

或在异常发生后使用以下方法

lastException.printStackTrace

以上是关于spark-shell - 如何避免抑制省略堆栈跟踪(异常)的主要内容,如果未能解决你的问题,请参考以下文章

抑制或避免警告 CA2214

numpy使用np.printoptions函数抑制numpy对于长numpy数组的自动省略显示numpy数组中的所有数据

在 App::abort(403) 之后抑制 Laravel 日志中的堆栈跟踪转储

通过map文件了解堆栈分配(STM32MDK5)--避免堆栈溢出

Apache 重写:如何避免在省略 url 结尾斜杠时显示 url 参数?

如何在 C++ 中处理或避免堆栈溢出