python爬虫中遇到的假死问题

Posted 流水剑客

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python爬虫中遇到的假死问题相关的知识,希望对你有一定的参考价值。

如在请求一个URL,网站没有响应的时候,会无限卡死进程。这个时候我们可以在urllib2.urlopen设置一个超时时间,超过这个时间的话就抛出异常。如下所示。

我们可以捕抓到这个异常然后用自己的方法去处理。

try:
req = urllib2.Request(imgurl,None,headers=headers)
response = urllib2.urlopen(req,timeout=5)
the_page = response.read()
except socket.timeout as e:
response.close()
except urllib2.HTTPError as e:
continue

常见的还有404,url无效的错误。注意,整这个过程真正发送和接收请求的是在response.read()时.









以上是关于python爬虫中遇到的假死问题的主要内容,如果未能解决你的问题,请参考以下文章

scrapy主动退出爬虫的代码片段(python3)

爬虫遇到头疼的验证码?Python实战讲解弹窗处理和验证码识别

iOS侧滑手势导致的假死

python爬虫零基础入门——反爬的简单说明

python爬虫模块之HTML下载模块

你如何在 python 中处理 graphql 查询和片段?