将 SQLserver jdbc 驱动程序连接到 Dataproc 集群
Posted
技术标签:
【中文标题】将 SQLserver jdbc 驱动程序连接到 Dataproc 集群【英文标题】:Connecting SQLserver jdbc driver to Dataproc cluster 【发布时间】:2018-11-26 09:57:28 【问题描述】:我正在开发用于分析航空数据的 PySpark 应用程序。数据库是一个 MS SQLServer DB。在连接到服务器上的数据库时。我收到“没有合适的驱动程序”的错误。但是,当我使用 CLI 在本地计算机上运行并将 JDBC 驱动程序 jar 文件添加到驱动程序类路径时,它会运行并与 DB 连接。但是当我尝试在 Dataproc 集群上运行时,它会抛出“没有合适的驱动程序”的错误。
sn-p代码如下:
from pyspark import SparkContext
from pyspark.sql import SparkSession
from pyspark.sql.dataframe import DataFrame
from pyspark.sql.functions import *
spark = SparkSession.builder
.appName('Test')
.getOrCreate()
df = spark.read.format("jdbc").options(
url="jdbc:sqlserver:XYXYXY",
database="data1",
user="YYYY", password="XXXX",
dbtable="db")
.load()
错误是:
Py4JJavaError: An error occurred while calling o209.load.
: java.sql.SQLException: No suitable driver
at java.sql.DriverManager.getDriver(DriverManager.java:315)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$7.apply(JDBCOptions.scala:84)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$7.apply(JDBCOptions.scala:84)
at scala.Option.getOrElse(Option.scala:121)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:83)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions.<init>(JDBCOptions.scala:34)
at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:34)
at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:307)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:178)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:146)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
at py4j.Gateway.invoke(Gateway.java:280)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:214)
at java.lang.Thread.run(Thread.java:748)
还有其他方法可以将 JDBC jar 文件添加到 Dataproc 集群吗?
【问题讨论】:
如果你不能显示代码,也许你可以简化它,改变变量名等,所以它有类似的行为,但没有什么秘密了。 我已经更新了我的问题。 您可以尝试在主节点的/usr/lib/spark/jars下添加jdbc jar。 我试过了,还是一样的错误 【参考方案1】:这里有一个非常相似的question 和answer,它显示了如何使用gcloud
命令将 JDBC 驱动程序添加到 Spark 驱动程序类路径:
$ gcloud dataproc jobs submit spark ... \
--jars=gs://<BUCKET>/<DIRECTORIES>/<JAR_NAME> \
--properties=spark.driver.extraClassPath=<JAR_NAME>
【讨论】:
以上是关于将 SQLserver jdbc 驱动程序连接到 Dataproc 集群的主要内容,如果未能解决你的问题,请参考以下文章
关于JAVA连接到SQLserver的步骤方法,以及遇到的问题
如何使用库 jTDS JDBC 驱动程序将 android 应用程序连接到 sql server 2012
使用 JDBC 将自己制作的 Windows 凭据传递给 SQL Server