Python爬虫编程思想(14):网络爬虫中的异常处理
Posted 蒙娜丽宁
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python爬虫编程思想(14):网络爬虫中的异常处理相关的知识,希望对你有一定的参考价值。
目录
在前面的文章中详细讲解了发送请求的过程,但这是在正常情况下的使用。如果非正常使用,例如,提供的URL根本就是错的,那么在发送请求时就会抛出异常。如果不使用try...except语句,程序就会崩溃(俗称异常退出)。在使用try...except语句捕捉异常时,except子句通常会加上错误类型,以便我们清楚地了解发生了什么错误。这些异常类都在urllib的error模块中定义,主要有两个异常类:URLError和HTTPError。
1. URLError
URLError类属于urllib库的error模块,该类从OSError类继承,是error模块中的异常基类,由request模块产生的异常都可以通过URLError来捕捉。
URLError类有一个reason属性,可以通过这个属性获得错误的原因。
下面的例子向不同服务器发送多个请求,并用URLError类捕捉发生的异常。
from urllib import request,error
try:
response = request.urlopen(\'http://ww
以上是关于Python爬虫编程思想(14):网络爬虫中的异常处理的主要内容,如果未能解决你的问题,请参考以下文章
Python爬虫编程思想:使用urllib库发送HTTP请求和接收响应
Python爬虫编程思想(20):requests网络库的基本用法