ORACLE BLOB数据迁移到亚马逊S3上

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ORACLE BLOB数据迁移到亚马逊S3上相关的知识,希望对你有一定的参考价值。

我有大量的数据(1000GB)作为blob或clob在oracle数据库中的一个表,我计划将整个blob数据迁移到amazon s3。

我想的解决方案是写jdbc api,从oracle中提取blob数据,然后用aws sdk推送到amazon s3。

我为这个方法写了poc,以找出上传数据需要多少时间,从最初的测试中,我发现上传15GB的数据需要1个小时(使用多线程)。

但我不认为我可以使用这种方法上传1000GB的数据到s3,因为这将需要大量的时间。

有什么其他的方法可以实现这个目标吗?


更新了问题

我打算在这个用例中使用远程远程分区的spring batch,这是一个好方法吗?

谢谢你的回复

答案

寻找Amazon SnowBall服务。

另一答案

你可以把blobclob数据导出到一个文件中。一旦导出到文件,将文件上传到S3 bucket。你可以使用任何开源ETL工具来提取blob数据。不要尝试直接从数据库中提取,这将需要大量的时间。我建议使用talend工具并迁移它。如果你使用talend工具,不需要导出到文件,你可以直接把数据从表复制到s3 bucket。

以上是关于ORACLE BLOB数据迁移到亚马逊S3上的主要内容,如果未能解决你的问题,请参考以下文章

怎么把oracle数据移植到mysql?

如何将ORACLE的数据迁移到MYSQL

如何获取 blob 类型的数据以在 oracle 中插入?

亚马逊彻底去掉 Oracle 数据库:迁移完成

oracle--导出导入blob类型的字段

如何使用 AWS RedShift Spectrum 为 S3 存储建模以进行查询