无法在 Spark 中将 CSV 文件加载为数据框
Posted
技术标签:
【中文标题】无法在 Spark 中将 CSV 文件加载为数据框【英文标题】:Unable load a CSV file as dataframe in spark 【发布时间】:2018-12-31 09:09:20 【问题描述】:我正在尝试在数据框中加载一个 CSV 文件,我的目标是将第一行显示为 CSV 文件的列名。但是在使用下面的代码时,我收到了错误
Exception in thread "main" java.lang.AbstractMethodError
at scala.collection.TraversableLike$class.filterNot(TraversableLike.scala:278)
代码:
def main(args : Array[String]): Unit =
val spark : SparkSession = SparkSession
.builder()
.master("local")
.appName("SparkSessioncsvExample")
.config("spark.some.config.option", "some-value")
.getOrCreate()
val df = spark.read
.format("csv")
.option("header", "true") //reading the headers
.load("D:/Scala/C2ImportCalEventSample.csv")
但我可以使用代码加载文件:
val df = spark.sparkContext
.textFile("D:/Scala/C2ImportCalEventSample1.csv")
//.flatMap(header='true')
.map(line => line.split(","))
// .map(line => line.map()
.toDF()
但在第二个代码文件中被成功加载,但第一行没有作为数据框的 column_name。
spark version is: spark-2.3.2
scala 2.11.3
jdk1.8.0_20
sbt-1.2.7
感谢任何可以帮助我的人。
【问题讨论】:
你的第二种方法实际上是加载文本文件..所以你不会得到列名..你能否将示例 csv 粘贴到问题中 你的类路径中也有 scala 2.10 吗? 如何执行应用程序? 【参考方案1】:java.lang.AbstractMethodError 几乎总是意味着类路径上的库与编译时不同。在这种情况下,我会检查以确保您在类路径中拥有正确版本的 Scala(并且只有一个版本的 scala)。
【讨论】:
谢谢,Harjeet kumar,我的环境变量指向 scala 2.12.8 而我的 sbt 文件是 2.11.3。我已经在 sbt 文件中将我的 env varibale 更改为 2.11.8 版本,它是 2.11.8 版本。它是工作文件。感谢您的帮助。以上是关于无法在 Spark 中将 CSV 文件加载为数据框的主要内容,如果未能解决你的问题,请参考以下文章