scrapy遇到Couldn't bind: 24: Too many open files.错误的解决

Posted sammyzhang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy遇到Couldn't bind: 24: Too many open files.错误的解决相关的知识,希望对你有一定的参考价值。

现象为爬虫日志报出Couldn‘t bind: 24: Too many open files.错误,netstat -natep | grep 代理端口 或爬虫进程ID,有大量ESTABLISHED的连接。

Socket error 10024,具体错误信息就是Too many open files 。

由于爬虫使用了代理,每次请求切换一次代理IP,代理连接有时会发生异常,在爬虫高并发的情况下,会产生许多由于代理连接异常导致的半连接假死连接,这些连接系统在进行keepalive探测后会进行回收,但如果回收速度过慢的话,达到最大文件句柄数后所有request请求就无法建立连接,就会报出 Too many open files。

解决办法:

修改系统最大文件句柄数;

编辑sysctl.conf,添加或修改一下几个参数:

net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_keepalive_intvl = 15
net.ipv4.tcp_keepalive_time = 120

net.ipv4.tcp_retries1 = 3
net.ipv4.tcp_retries2 = 15
net.ipv4.tcp_syn_retries = 6
net.ipv4.tcp_synack_retries = 5

保存退出并sysctl -p,使修改生效。

 

原创文章,转载请标明出处。






以上是关于scrapy遇到Couldn't bind: 24: Too many open files.错误的解决的主要内容,如果未能解决你的问题,请参考以下文章

聊天机器人项目遇到的问题 Couldn't resolve resource @id/visible when using TextInputLayout

原创Couldn't read packet: Connection reset by peer 错误排查思路(推荐)

Linux curl: (35) SSL connect error问题处理 以及 Couldn't resolve host 问题处理

java.lang.UnsatisfiedLinkError: Couldn't load BaiduMapSDK 的解决方法

Failed to import package with error: Couldn't decompress package的解决方案

iOS模拟器URLWithString The operation couldn't be completed. (Cocoa error 256.)