关于scrapy 使用代理相关问题

Posted 这次我有经验了

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于scrapy 使用代理相关问题相关的知识,希望对你有一定的参考价值。

在scrapy中使用代理时,我们不能保证每个代理都可用,难免出现代理ip错误的情况,如果代理ip出现错误设置一个请求超时和重新发送这个链接

在yield scrapy.Request时候加上一个参数:

meta={download_timeout: 10}

代表请求超时为10秒

然后在settings中设置如下:

RETRY_ENABLED = True
RETRY_TIMES = 5

保存即可

以上是关于关于scrapy 使用代理相关问题的主要内容,如果未能解决你的问题,请参考以下文章

python scrapy 代理中间件,爬虫必掌握的内容之一

scrapy主动退出爬虫的代码片段(python3)

Python爬虫Scrapy框架IP代理的配置与调试

03_使用scrapy框架爬取豆瓣电影TOP250

Scrapy之Cookie和代理

Scrapy框架之如何给你的请求添加代理