导入 40GB+ .sql 文件

Posted

技术标签:

【中文标题】导入 40GB+ .sql 文件【英文标题】:Importing 40GB+ .sql file 【发布时间】:2014-04-24 07:23:55 【问题描述】:

有什么方法可以将 40GB+ .sql 文件导入 mysql 数据库?

我尝试了大转储。我尝试将.sql 加载到工作台中并执行。

到目前为止,我尝试过的方法都没有奏效。

我想知道将这么大的数据库.sql 导入 mysql 的最佳方法是什么?请注意,将 SQL 文件拆分为块可能不起作用,因为某些表大于 5GB。

感谢任何建议。

【问题讨论】:

启动mysql控制台客户端use你的数据库并插入\. dump.sql 尝试用mysql命令行工具导入 使用mysql cli,如mysql -uUSER -p DATABASE < dump.sql > result.txt(系统将提示您输入密码)。它不会非常快,但会在后台进行转储恢复。文件result.txt 将包含任何错误或其他结果消息 我和我都尝试了上面的方法,它开始很好,但一段时间后我收到一条通知,说:Error 2006 (HY000): MySQL Server has gone away 试试这个导入***.com/a/12425526/1251601 【参考方案1】:

步骤 1: 更改配置文件:my.cnf(如果运行 MySQL V5.6,则位于 Windows 中的 C:\ProgramData 目录,注意:此目录默认情况下是隐藏的,您必须在文件夹选项中启用隐藏文件的可见性。

max_allowed_packet=2000M

第 2 步:重启 MySQL 服务

第 3 步:使用以下转储命令:

mysql -hhostname -uusername -ppassword db_name
< C:\sql_input_path\db.sql > C:\error_log_output_path\error.txt

【讨论】:

【参考方案2】:

我导入了一个像这样的大转储文件:mysql -u username -p database_name

【讨论】:

与现有的 cmets 有什么区别?假设这也应该是评论。 我只是发布了明显的方式作为答案,所以他可以接受?! +1,感谢您的回复,这是朝着正确方向迈出的一步 :)

以上是关于导入 40GB+ .sql 文件的主要内容,如果未能解决你的问题,请参考以下文章

Pandas - 导入大小为 4GB 的 CSV 文件时出现内存错误

text 将1GB .sql文件导入WAMP / phpmyadmin

70GB数据库 最快导入,导出成sql文件的方法是啥?

如何有效且快速地将大型 (6 Gb) .csv 文件导入 R,而不会导致 R REPL 崩溃?

使用 bigmemory 将 40 GB csv 文件读入 R

VmWare如何导入已有VMDK虚拟机文件