Python爬虫编程思想(14):网络爬虫中的异常处理

Posted 蒙娜丽宁

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python爬虫编程思想(14):网络爬虫中的异常处理相关的知识,希望对你有一定的参考价值。

       

目录

1. URLError

2. HTTPError


         在前面的文章中详细讲解了发送请求的过程,但这是在正常情况下的使用。如果非正常使用,例如,提供的URL根本就是错的,那么在发送请求时就会抛出异常。如果不使用try...except语句,程序就会崩溃(俗称异常退出)。在使用try...except语句捕捉异常时,except子句通常会加上错误类型,以便我们清楚地了解发生了什么错误。这些异常类都在urllib的error模块中定义,主要有两个异常类:URLError和HTTPError。

1. URLError

        URLError类属于urllib库的error模块,该类从OSError类继承,是error模块中的异常基类,由request模块产生的异常都可以通过URLError来捕捉。

        URLError类有一个reason属性,可以通过这个属性获得错误的原因。

        下面的例子向不同服务器发送多个请求,并用URLError类捕捉发生的异常。

from urllib import request,error
try:
    response = request.urlopen(\'http://ww

以上是关于Python爬虫编程思想(14):网络爬虫中的异常处理的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫编程思想:网络爬虫的基本原理

Python爬虫编程思想:实战案例:抓取所有的网络资源

Python爬虫编程思想:使用urllib库发送HTTP请求和接收响应

Python爬虫编程思想(20):requests网络库的基本用法

Python爬虫编程思想(161):Scrapy中的通用爬虫

Python爬虫编程思想(161):Scrapy中的通用爬虫