导入 40GB+ .sql 文件
Posted
技术标签:
【中文标题】导入 40GB+ .sql 文件【英文标题】:Importing 40GB+ .sql file 【发布时间】:2014-04-24 07:23:55 【问题描述】:有什么方法可以将 40GB+ .sql
文件导入 mysql 数据库?
我尝试了大转储。我尝试将.sql
加载到工作台中并执行。
到目前为止,我尝试过的方法都没有奏效。
我想知道将这么大的数据库.sql
导入 mysql 的最佳方法是什么?请注意,将 SQL 文件拆分为块可能不起作用,因为某些表大于 5GB。
感谢任何建议。
【问题讨论】:
启动mysql控制台客户端use
你的数据库并插入\. dump.sql
尝试用mysql命令行工具导入
使用mysql
cli,如mysql -uUSER -p DATABASE < dump.sql > result.txt
(系统将提示您输入密码)。它不会非常快,但会在后台进行转储恢复。文件result.txt
将包含任何错误或其他结果消息
我和我都尝试了上面的方法,它开始很好,但一段时间后我收到一条通知,说:Error 2006 (HY000): MySQL Server has gone away
。
试试这个导入***.com/a/12425526/1251601
【参考方案1】:
步骤 1: 更改配置文件:my.cnf
(如果运行 MySQL V5.6,则位于 Windows 中的 C:\ProgramData
目录,注意:此目录默认情况下是隐藏的,您必须在文件夹选项中启用隐藏文件的可见性。
max_allowed_packet=2000M
第 2 步:重启 MySQL 服务
第 3 步:使用以下转储命令:
mysql -hhostname -uusername -ppassword db_name
< C:\sql_input_path\db.sql > C:\error_log_output_path\error.txt
【讨论】:
【参考方案2】:我导入了一个像这样的大转储文件:mysql -u username -p database_name
【讨论】:
与现有的 cmets 有什么区别?假设这也应该是评论。 我只是发布了明显的方式作为答案,所以他可以接受?! +1,感谢您的回复,这是朝着正确方向迈出的一步 :)以上是关于导入 40GB+ .sql 文件的主要内容,如果未能解决你的问题,请参考以下文章
Pandas - 导入大小为 4GB 的 CSV 文件时出现内存错误
text 将1GB .sql文件导入WAMP / phpmyadmin
如何有效且快速地将大型 (6 Gb) .csv 文件导入 R,而不会导致 R REPL 崩溃?