使用 spark sql 在 sqlserver 上执行查询
Posted
技术标签:
【中文标题】使用 spark sql 在 sqlserver 上执行查询【英文标题】:execute query on sqlserver using spark sql 【发布时间】:2018-09-24 20:38:38 【问题描述】:我正在尝试使用 spark sql 获取 sql server 中架构中所有表的行数和列数。
当我使用 sqoop 执行以下查询时,它给了我正确的结果。
sqoop eval --connect "jdbc:sqlserver://<hostname>;database=<dbname>" \
--username=<username> --password=<pwd> \
--query """SELECT
ta.name TableName ,
pa.rows RowCnt,
COUNT(ins.COLUMN_NAME) ColCnt FROM <db>.sys.tables ta INNER JOIN
<db>.sys.partitions pa ON pa.OBJECT_ID = ta.OBJECT_ID INNER JOIN
<db>.sys.schemas sc ON ta.schema_id = sc.schema_id join
<db>.INFORMATION_SCHEMA.COLUMNS ins on ins.TABLE_SCHEMA =sc.name and ins.TABLE_NAME=ta.name
WHERE ta.is_ms_shipped = 0 AND pa.index_id IN (1,0) and sc.name ='<schema>' GROUP BY sc.name, ta.name, pa.rows order by
TableName"""
但是当我尝试从 spark sql 执行相同的查询时,我收到一个错误“com.microsoft.sqlserver.jdbc.SQLServerException: Incorrect syntax near the keyword 'WHERE'” 如果有人对此错误有任何想法,请帮助我。
下面是我执行的 spark sql 命令 spark-shell --jars "/var/lib/sqoop/sqljdbc42.jar"
sqlContext.read.format("jdbc").option("url", "jdbc:sqlserver://<hostname>;database=<dbname>;user=<user>;password=<pwd>").option("dbtable", """(SELECT
ta.name TableName ,pa.rows RowCnt,
COUNT(ins.COLUMN_NAME) ColCnt FROM <db>.sys.tables ta INNER JOIN
<db>.sys.partitions pa ON pa.OBJECT_ID = ta.OBJECT_ID INNER JOIN
<db>.sys.schemas sc ON ta.schema_id = sc.schema_id join
<db>.INFORMATION_SCHEMA.COLUMNS ins on ins.TABLE_SCHEMA =sc.name and ins.TABLE_NAME=ta.name
WHERE ta.is_ms_shipped = 0 AND pa.index_id IN (1,0) and sc.name ='<schema>' GROUP BY sc.name,ta.name, pa.rows)""").option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver").load()
预期输出:
表名、行号、列号
表 A、62、30
表 B, 3846, 76
【问题讨论】:
您似乎在 Select 语句之前缺少单引号或双引号?你试过这个吗? 【参考方案1】:您的 Spark SQL 命令中的问题在于 dbTable
选项。
dbTable
接受在 SQL 查询的 FROM
子句中有效的任何内容。例如,您也可以在括号中使用子查询,而不是完整的表。但是,当使用括号中的子查询时,它应该有一个别名。因此,您的命令应修改为,
sqlContext
.read
.format("jdbc")
.option("url", "jdbc:sqlserver://<hostname>;database=<dbname>;user=<user>;password=<pwd>")
.option("dbtable",
"""(SELECT
ta.name TableName ,
pa.rows RowCnt,
COUNT(ins.COLUMN_NAME) ColCnt
FROM <db>.sys.tables ta
INNER JOIN
<db>.sys.partitions pa
ON pa.OBJECT_ID = ta.OBJECT_ID
INNER JOIN
<db>.sys.schemas sc
ON ta.schema_id = sc.schema_id
JOIN
<db>.INFORMATION_SCHEMA.COLUMNS ins
ON ins.TABLE_SCHEMA = sc.name and ins.TABLE_NAME = ta.name
WHERE ta.is_ms_shipped = 0
AND pa.index_id IN (1,0)
AND sc.name ='<schema>'
GROUP BY sc.name,ta.name, pa.rows) as TEMP""")
.option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")
.load()
只是一种预感。希望这会有所帮助!
【讨论】:
以上是关于使用 spark sql 在 sqlserver 上执行查询的主要内容,如果未能解决你的问题,请参考以下文章
使用 Spark Scala 将 Sql Server 数据类型转换为 Hive 数据类型
Pyspark:java.lang.ClassNotFoundException:找不到数据源:com.microsoft.sqlserver.jdbc.spark(SQL 数据池)
Spark -- 从 Spark 2.3 从 SQL Server 返回标识值