我需要多少个 Redshift 节点 (dc1.large) 来存储 0.2 TB?
Posted
技术标签:
【中文标题】我需要多少个 Redshift 节点 (dc1.large) 来存储 0.2 TB?【英文标题】:How many Redshift nodes (dc1.large) do I need to store 0.2 TB? 【发布时间】:2017-02-22 11:52:24 【问题描述】:Amazon Redshift 上的 dc1.large 节点可以在 SSD 上存储 0.16 TB。 如果我确实有 0.2 TB 的数据:
我必须切换到 e 吗? G。 ds2.xlarge 容量为 2 TB? 是否可以将两个 dc1.large 节点添加到集群中,以便拥有 2 * 0.16 TB = 0.32 TB 的容量?简短的长问题:Redshift 上的多个节点是加起来还是相互镜像?多节点性能提升还是空间增加?
inb4:非常感谢!
【问题讨论】:
最小集群大小为 2 个节点。冗余被考虑在内,因此您可以获得完整的存储空间。添加节点很容易,因此没有理由获得 dc1.8xlarge,除非您知道自己需要存储......并且有很多钱;-) 糟糕...至少 2 只适用于 8xlarge 尺寸。这里有更多信息:docs.aws.amazon.com/redshift/latest/mgmt/… 向东添加节点,但有时问题出在存储上,然后您需要添加节点,因为 dc1.large 节点包含 160GB 【参考方案1】:在必须切换到较大的节点类型之前,您可以在 Redshift 集群中使用最多 32 个“小型”节点(dc1.large
、ds2.large
)。存储是附加的。
【讨论】:
【参考方案2】:多个节点增加了空间和性能。您的数据根据rules you set 在节点之间分布,并由每个节点独立处理。有关节点类型(dc 与 ds)的更多信息,请参阅指南 here
【讨论】:
以上是关于我需要多少个 Redshift 节点 (dc1.large) 来存储 0.2 TB?的主要内容,如果未能解决你的问题,请参考以下文章