将大文件从本地机器复制到 S3 时读取端点 URL 超时

Posted

技术标签:

【中文标题】将大文件从本地机器复制到 S3 时读取端点 URL 超时【英文标题】:Read timeout on endpoint URL when copying large files from local machine to S3 【发布时间】:2022-01-17 20:18:18 【问题描述】:

当我运行 aws s3 cp local_file.csv s3://bucket_name/file.csv 时,上传复制开始正常并运行正常,直到速度变慢并最终超时(大约 20-30% 已上传)并出现以下错误:

Read timeout on endpoint URL: "https://bucketname.s3.amazonaws.com/file.csv?uploadid=xxx&partNumber=65.

该文件很大(~2GB),但我过去从另一个上传速度更快的网络运行此过程正常。现在我在家中以较低的速度运行它(最大 10mbps,但上传时间越长,速度越慢),我想在超时之前留出更多余地。

知道如何将该超时设置为不同的阈值吗?无法在 AWS 文档中发现这一点。

【问题讨论】:

【参考方案1】:

您可能必须在配置文件中为 cli 设置一些配置值,以便将大文件分解为可管理的块:请参阅下面的链接:

https://docs.aws.amazon.com/cli/latest/topic/s3-config.html

还要确保您的 CLI 版本是最新的。

【讨论】:

以上是关于将大文件从本地机器复制到 S3 时读取端点 URL 超时的主要内容,如果未能解决你的问题,请参考以下文章

使用本地机器从 s3 读取数据 - pyspark

将大文件写入 S3 的最佳方法是啥?

从本地复制到远程桌面时提示:无法复制文件,无法读取源文件或磁盘

在python SSHCLient中将文件从远程服务器完全读取到本地机器?

当Spark从S3读取大文件时,可以将数据分发到不同的节点

带有预签名 URL 和 CORS 问题的 S3 上传