有啥方法可以在 spark 中建立与 redshift 数据库的静态连接

Posted

技术标签:

【中文标题】有啥方法可以在 spark 中建立与 redshift 数据库的静态连接【英文标题】:Is there any way to make static connection to redshift database in spark有什么方法可以在 spark 中建立与 redshift 数据库的静态连接 【发布时间】:2020-04-27 12:18:38 【问题描述】:

我正在使用 spark API spark.read.jdbc(String url,String table,java.util.Properties properties)。它使用从数据库表返回的架构创建一个数据框。

每当我调用上述 API 时,它都会创建一个到数据库集群的连接请求。有没有办法在上面的 API 中传递或创建单例的东西?

【问题讨论】:

【参考方案1】:

Spark 是惰性求值的,因此它只会在触发任何操作时触发,例如.load()。我认为在执行下一个操作之前,Spark 不可能保持与 Redshift 的连接打开。这是 Spark 的功能,它会延迟获取连接并在完成操作后立即释放。

【讨论】:

我是否得到任何 load() 代码以便更好地理解 github.com/apache/spark/blob/master/sql/core/src/main/scala/org/…

以上是关于有啥方法可以在 spark 中建立与 redshift 数据库的静态连接的主要内容,如果未能解决你的问题,请参考以下文章

PySpark 和 Spark 有啥区别?

spark中选择和过滤的顺序有啥偏好吗?

Spark 中用 Scala 和 java 开发有啥区别

Spark中RDD和Dataframe有啥区别

Apache Spark SQLContext 与 HiveContext 有啥区别?

PHP & PDO - 有啥方法可以建立“安全”的持久连接吗?