在 V4/孟买/法兰克福地区使用 Spark-Redshift 连接器时出错

Posted

技术标签:

【中文标题】在 V4/孟买/法兰克福地区使用 Spark-Redshift 连接器时出错【英文标题】:Error in using Spark-Redshift connector with V4 / Mumbai / Frankfurt region 【发布时间】:2018-04-20 18:46:29 【问题描述】:

使用 Spark-Redshift 3.0.0 和 Spark-2.2.0 从 Redshift 读取时出现以下错误

com.amazonaws.services.s3.model.AmazonS3Exception: Status Code: 400, AWS Service: Amazon S3, 
AWS Request ID: 7D8E4909FEACA905, AWS Error Code: InvalidRequest, AWS Error Message: 
The authorization mechanism you have provided is not supported. Please use AWS4-HMAC-SHA256.

【问题讨论】:

【参考方案1】:

在您的项目中添加以下文件。

package com.databricks.spark.redshift

import com.databricks.spark.redshift.DefaultSource;
import org.apache.spark.sql.sources.BaseRelation;
import org.apache.spark.sql.SparkSession, DataFrame, SQLContext
import com.amazonaws.auth.AWSCredentialsProvider
import com.amazonaws.services.s3.AmazonS3Client

object RedshiftReaderM 

    val endpoint = "s3.ap-south-1.amazonaws.com"

    def getS3Client(provider:AWSCredentialsProvider):AmazonS3Client = 
        val client = new AmazonS3Client(provider);
        client.setEndpoint(endpoint);
        client
    

    def getDataFrameForConfig(configs:Map[String,String], 
       sparkSession:SparkSession):DataFrame = 

        val sqlContext = sparkSession.sqlContext
        val source:DefaultSource = new DefaultSource(new JDBCWrapper(),getS3Client)
        val br:BaseRelation = source.createRelation(sqlContext, configs)
        sparkSession.baseRelationToDataFrame(br);
    

示例使用。

import com.databricks.spark.redshift._

sc.hadoopConfiguration.set("fs.s3a.endpoint","s3.ap-south-1.amazonaws.com")
System.setProperty("com.amazonaws.services.s3.enableV4", "true")

val options = Map(  "query" -> "select * from tbl limit 10", 
                    "url"   -> "jdbc:redshift:/<redshift-host>:5439/<database>?user=<user>&password=<password>",
                    "tempdir" -> "s3a://bucket/ks1/ks2/",
                    "aws_iam_role" -> "arn:aws:iam::<accountid>:role/<iam-role>"
                )
val df = RedshiftReaderM.getDataFrameForConfig(options, spark)
df.show

来源:https://github.com/databricks/spark-redshift/issues/332

【讨论】:

以上是关于在 V4/孟买/法兰克福地区使用 Spark-Redshift 连接器时出错的主要内容,如果未能解决你的问题,请参考以下文章

GAE 地区 - 确切位置

Firebase Cloud Firestore 在 asia-south1(孟买)不可用?

如果要托管国际Web应用程序,我应该选择哪个AWS地区?

新功能:阿里云负载均衡SLB支持HTTP/HTTPS超时时间自定义功能

Heroku 多区域支持

国内+海外IDC资源合作