使用 Spark Scala 将 Sql Server 数据类型转换为 Hive 数据类型

Posted

技术标签:

【中文标题】使用 Spark Scala 将 Sql Server 数据类型转换为 Hive 数据类型【英文标题】:SqlServer Datatype to Hive Datatype using Spark Scala 【发布时间】:2019-07-19 11:25:47 【问题描述】:

Spark 用于从 SQL Server 数据库中获取表的架构。由于数据类型不匹配,我在使用此架构创建 Hive 表时遇到问题。我们如何在 Spark Scala 中将 SQL Server 数据类型转换为 Hive 数据类型。

val df = sqlContext.read.format("jdbc")
  .option("url", "jdbc:sqlserver://host:port;databaseName=DB")
  .option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")
  .option("dbtable", "schema.tableName")
  .option("user", "Userid").option("password", "pswd")
  .load().schema

【问题讨论】:

您面临哪些类型的问题?这是您可用于映射 Hive/SQL Server 架构的一种来源docs.oracle.com/goldengate/v12212/gg-veridata/GVDUG/… 从模式中它应该自动转换为 hive 数据类型。如何使用 spark scala 来实现? 【参考方案1】:

谢谢,得到了解决方案。创建了一种检查数据类型的方法,如下所示。

def sqlToHiveDatatypeMapping(inputDatatype: String): String = inputDatatype match 
  case "numeric" => "int"
  case "bit" => "smallint"
  case "long" => "bigint"
  case "dec_float" => "double"
  case "money" => "double" 
  case "smallmoney" => "double"  
  case "real" => "double"
  case "char" => "string" 
  case "nchar" => "string"  
  case "varchar" => "string"
  case "nvarchar" => "string"
  case "text" => "string"
  case "ntext" => "string"
  case "binary" => "binary"
  case "varbinary" => "binary"
  case "image" => "binary"
  case "date" => "date"
  case "datetime" => "timestamp"
  case "datetime2" => "timestamp"
  case "smalldatetime" => "timestamp"
  case "datetimeoffset" => "timestamp"
  case "timestamp" => "timestamp"
  case "time" => "timestamp"
  case "clob" => "string"
  case "blob" => "binary"
  case _ => "string"

val columns = df.fields.map(field => field.name.toLowerCase+" "+sqlToHiveDatatypeMapping(field.dataType.typeName.toLowerCase)).mkString(",")

【讨论】:

没错,这在我看来是合理的

以上是关于使用 Spark Scala 将 Sql Server 数据类型转换为 Hive 数据类型的主要内容,如果未能解决你的问题,请参考以下文章

使用 Spark Scala 将 Sql Server 数据类型转换为 Hive 数据类型

如何将 scala spark.sql.dataFrame 转换为 Pandas 数据框

使用 spark scala 向空数据框添加一行

Spark/scala 中的 SQL 查询

在scala中使用spark sql解决特定需求

Spark将DataFrame数据sftp到指定机器(scala)