当我尝试上传包含大约 2000 条记录的 csv 文件时,我一直收到此错误消息

Posted

技术标签:

【中文标题】当我尝试上传包含大约 2000 条记录的 csv 文件时,我一直收到此错误消息【英文标题】:I Keep Receiving this error message when i try uploading a csv file that has round about 2000 records 【发布时间】:2018-03-30 04:14:40 【问题描述】:
/*Service Unavailable
        The server is temporarily unable to service your request due to maintenance downtime or capacity problems. Please try again later.
        Additionally, a 503 Service Unavailable error was encountered while trying to use an Error Document to handle the request.
        */ 

我试过set_time_limit(0); 但是还是不行。

【问题讨论】:

欢迎来到 ***!请查看guides for asking questions,特别是how to create a Minimal, Complete, and Verifiable example 【参考方案1】:

我似乎已经发现系统在共享主机服务器上导致内存限制失败的问题

【讨论】:

【参考方案2】:

打开error_reporting,我认为这是Memory_limit

【讨论】:

早上好,我已将此设置更新为 max_input_time -1 memory_limit 512M max_execution_time 1800 但是转换仍然崩溃并且错误消息仍然显示 磁盘 /var/tmp (/var/tmp) 96 % 磁盘 / (/) 96 % 我应该担心这些 display_errors(在 error_reporting (~E_ALL) 上是的,它也在上【参考方案3】:

很可能你的内存不足,导致 php/apache 崩溃。

检查它当前设置的内容,然后如果你有足够的资源在 php.ini 中更新它

【讨论】:

早上好,我已将此设置更新为 max_input_time -1 memory_limit 512M max_execution_time 1800 但是转换仍然失败并且仍然显示错误消息

以上是关于当我尝试上传包含大约 2000 条记录的 csv 文件时,我一直收到此错误消息的主要内容,如果未能解决你的问题,请参考以下文章

Python 导入 csv 到列表

Ruby-on-Rails 3.2:导出包含大型数据集(100,000 条记录)的 CSV

如何从 PL/SQL 导出半百万条记录

访问生成表查询

从nodejs中的CSV文件获取数据

在 python 中高效处理约 5000 万条记录文件