原创问题定位分享(16)spark写数据到hive外部表报错ClassCastException: org.apache.hadoop.hive.hbase.HiveHBaseTableOutpu(代
Posted Thinking in BigData
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了原创问题定位分享(16)spark写数据到hive外部表报错ClassCastException: org.apache.hadoop.hive.hbase.HiveHBaseTableOutpu(代相关的知识,希望对你有一定的参考价值。
spark 2.1.1
spark在写数据到hive外部表(底层数据在hbase中)时会报错
Caused by: java.lang.ClassCastException: org.apache.hadoop.hive.hbase.HiveHBaseTableOutputFormat cannot be cast to org.apache.hadoop.hive.ql.io.HiveOutputFormat
at org.apache.spark.sql.hive.SparkHiveWriterContainer.outputFormat$lzycompute(hiveWriterContainers.scala:82)
org.apache.spark.sql.hive.SparkHiveWriterContainer
org.apache.spark.sql.hive.SparkHiveWriterContainer @transient private lazy val outputFormat = conf.value.getOutputFormat.asInstanceOf[HiveOutputFormat[AnyRef, Writable]]
报错的是这一句,查看代码发现此时这个变量并没有什么用处,可以在不能cast时置为null
@transient private lazy val outputFormat = // conf.value.getOutputFormat.asInstanceOf[HiveOutputFormat[AnyRef, Writable]] conf.value.getOutputFormat match { case format if format.isInstanceOf[HiveOutputFormat[AnyRef, Writable]] => format.asInstanceOf[HiveOutputFormat[AnyRef, Writable]] case _ => null }
问题解决,官方讨论如下: https://issues.apache.org/jira/browse/SPARK-6628
以上是关于原创问题定位分享(16)spark写数据到hive外部表报错ClassCastException: org.apache.hadoop.hive.hbase.HiveHBaseTableOutpu(代的主要内容,如果未能解决你的问题,请参考以下文章
原创问题定位分享(18)beeline连接spark thrift有时会卡住
原创问题定位分享(19)spark task在executors上分布不均