将数据加载到 Redshift

Posted

技术标签:

【中文标题】将数据加载到 Redshift【英文标题】:Loading data into Redshift 【发布时间】:2018-08-09 07:36:35 【问题描述】:

我想将 100 万大小的字符串插入 Redshift。我尝试使用 Redshift 提供的不同压缩方法,但经过特定长度后,Redshift 也会截断数据。有什么建议吗?

【问题讨论】:

考虑添加有关您的问题的更多信息 很遗憾,您的问题中没有足够的信息来提供答案。 (事实上​​,我什至不知道您在问什么!)请编辑您的问题以提供更多信息。您是说每 数据的长度为 100 万个字符吗?或者一有100万个字符长?还是您要加载 100 万行?请提供更多信息! 如果您解释一下您将如何处理它 - 我们可以提供帮助 【参考方案1】:

Redshift 中的最大 VARCHAR 大小为 65,535 字节。您必须将字符串拆分为多列或多行。

https://docs.aws.amazon.com/redshift/latest/dg/r_Character_types.html

【讨论】:

或者如果你有 4 字节的 utf 字符,我相信会比这个少 4 倍 当然,它以字节为单位。但是,只有 4 个字节的字符是非常不寻常的。

以上是关于将数据加载到 Redshift的主要内容,如果未能解决你的问题,请参考以下文章

过滤加载到 Redshift 中的数据

将数据加载到 Redshift

Python 将数据从 Redshift 加载到 S3

使用 COPY 功能自动将数据加载到 Redshift

如何将 CDC 加载到 Redshift 数据库中?

从 parquet 文件将具有默认值的数据加载到 Redshift