在 Azure Databricks 的集群 Spark Config 中设置数据湖连接

Posted

技术标签:

【中文标题】在 Azure Databricks 的集群 Spark Config 中设置数据湖连接【英文标题】:Setting data lake connection in cluster Spark Config for Azure Databricks 【发布时间】:2020-12-08 00:04:47 【问题描述】:

我正在尝试在连接到 Azure Data Lake Gen2 帐户的 Azure Databricks 工作区中为开发人员/数据科学家简化笔记本创建。现在,每个笔记本的顶部都有这个:

    %scala
    spark.sparkContext.hadoopConfiguration.set("fs.azure.account.auth.type.<datalake.dfs.core.windows.net", "OAuth")
    spark.sparkContext.hadoopConfiguration.set("fs.azure.account.oauth.provider.type.<datalake>.dfs.core.windows.net",  "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider")
    spark.sparkContext.hadoopConfiguration.set("fs.azure.account.oauth2.client.id.<datalake>.dfs.core.windows.net", <SP client id>)
    spark.sparkContext.hadoopConfiguration.set("fs.azure.account.oauth2.client.secret.<datalake>.dfs.core.windows.net", dbutils.secrets.get(<SP client secret>))
    spark.sparkContext.hadoopConfiguration.set("fs.azure.account.oauth2.client.endpoint.<datalake>.dfs.core.windows.net", "https://login.microsoftonline.com/<tenant>/oauth2/token")

我们的实现试图避免在 DBFSS 中挂载,因此我一直在尝试查看是否可以在集群上使用 Spark Config 来定义这些值(每个集群可以访问不同的数据湖)。

但是,我还不能让它工作。当我尝试各种口味时:

org.apache.hadoop.fs.azure.account.oauth2.client.id.<datalake>.dfs.core.windows.net <sp client id>
org.apache.hadoop.fs.azure.account.auth.type.<datalake>.dfs.core.windows.net OAuth
org.apache.hadoop.fs.azure.account.oauth.provider.type.<datalake>.dfs.core.windows.net "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider"
org.apache.hadoop.fs.azure.account.oauth2.client.secret.<datalake>.dfs.core.windows.net secrets/secret/secret
org.apache.hadoop.fs.azure.account.oauth2.client.endpoint.<datalake>.dfs.core.windows.net "https://login.microsoftonline.com/<tenant>"

我得到“初始化配置失败”上面的版本看起来默认尝试使用存储帐户访问密钥而不是 SP 凭据(这只是使用简单的 ls 命令进行测试以确保它有效)。

ExecutionError: An error occurred while calling z:com.databricks.backend.daemon.dbutils.FSUtils.ls.
: Failure to initialize configuration
    at shaded.databricks.v20180920_b33d810.org.apache.hadoop.fs.azurebfs.services.SimpleKeyProvider.getStorageAccountKey(SimpleKeyProvider.java:51)
    at shaded.databricks.v20180920_b33d810.org.apache.hadoop.fs.azurebfs.AbfsConfiguration.getStorageAccountKey(AbfsConfiguration.java:412)
    at shaded.databricks.v20180920_b33d810.org.apache.hadoop.fs.azurebfs.AzureBlobFileSystemStore.initializeClient(AzureBlobFileSystemStore.java:1016)

我希望有办法解决这个问题,尽管如果唯一的答案是“你不能这样做”,那当然是可以接受的答案。

【问题讨论】:

你能告诉我你是怎么配置的吗?是你提到的docs.microsoft.com/en-us/azure/databricks/clusters/…。 我确实在集群上使用了 Spark 选项卡,是的,上面的第二个代码示例是我在该选项卡中放置的内容的副本。我还参考了这个论坛帖子(关于如何包含秘密)forums.databricks.com/questions/17733/… 【参考方案1】:

如果要在Azure Databricks集群Spark配置中添加Azure Data Lake gen2配置,请参考如下配置

spark.hadoop.fs.azure.account.oauth2.client.id.<datalake>.dfs.core.windows.net <sp client id>
spark.hadoop.fs.azure.account.auth.type.<datalake>.dfs.core.windows.net OAuth
spark.hadoop.fs.azure.account.oauth.provider.type.<datalake>.dfs.core.windows.net org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider
org.apache.hadoop.fs.azure.account.oauth2.client.secret.<datalake>.dfs.core.windows.net secrets/secret/secret
spark.hadoop.fs.azure.account.oauth2.client.endpoint.<datalake>.dfs.core.windows.net https://login.microsoftonline.com/<tenant>/oauth2/token

更多详情请参考here和here

【讨论】:

这行得通。我不得不将秘密更改为也使用spark.hadoop 而不是org.apache 顺便说一句。非常感谢。 @Jim-Xu 在secrets/secret/secret 我假设第一个secrets 是一个文字字符串,对吗?假设是,我可以在 Azure 的哪些部分找到第二个和第三个 secret 的值?例如,如果我创建了一个名为 foo 的全新 KeyVault 并在其中创建了一个名为 mySecret 的秘密,那么我从哪里获得第二个和第三个 secret 的值?谢谢。【参考方案2】:

您可能需要将集群配置为Access ADLS Gen2 directly

请注意以下访问机密的格式:Read a secret

Spark 配置属性或环境变量路径值的语法必须是 secrets//。该值必须以 secrets/ 开头并以 结尾。

所以这一行:

spark.hadoop.fs.azure.account.oauth2.client.secret..dfs.core.windows.net

应该是这样的:

spark.hadoop.fs.azure.account.oauth2.client.secret.yourstorageaccountname.dfs.core.windows.net secrets/yoursecretscope/yoursecretname

【讨论】:

以上是关于在 Azure Databricks 的集群 Spark Config 中设置数据湖连接的主要内容,如果未能解决你的问题,请参考以下文章

Azure Databricks:如何在 Databricks 群集中添加 Spark 配置

在 Azure Databricks 的集群 Spark Config 中设置数据湖连接

无法使用 jdbc 和 spark 连接器从 databricks 集群连接到 Azure 数据库 for MySQL 服务器

提取 Databricks 集群依赖项并将它们添加到 build.sbt 以在 Azure DevOps 中构建 jar

在 Azure Databricks Notebook 上检索群集不活动时间

使用 6.4 版扩展支持(包括 Apache Spark 2.4.5、Scala 2.11)在 azure databricks 上启动集群时出现问题