将数据加载到 Redshift
Posted
技术标签:
【中文标题】将数据加载到 Redshift【英文标题】:Loading data into Redshift 【发布时间】:2018-08-09 07:36:35 【问题描述】:我想将 100 万大小的字符串插入 Redshift。我尝试使用 Redshift 提供的不同压缩方法,但经过特定长度后,Redshift 也会截断数据。有什么建议吗?
【问题讨论】:
考虑添加有关您的问题的更多信息 很遗憾,您的问题中没有足够的信息来提供答案。 (事实上,我什至不知道您在问什么!)请编辑您的问题以提供更多信息。您是说每 行 数据的长度为 100 万个字符吗?或者一列有100万个字符长?还是您要加载 100 万行?请提供更多信息! 如果您解释一下您将如何处理它 - 我们可以提供帮助 【参考方案1】:Redshift 中的最大 VARCHAR
大小为 65,535 字节。您必须将字符串拆分为多列或多行。
https://docs.aws.amazon.com/redshift/latest/dg/r_Character_types.html
【讨论】:
或者如果你有 4 字节的 utf 字符,我相信会比这个少 4 倍 当然,它以字节为单位。但是,只有 4 个字节的字符是非常不寻常的。以上是关于将数据加载到 Redshift的主要内容,如果未能解决你的问题,请参考以下文章