python爬虫urllib库使用
Posted xxcxxc
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python爬虫urllib库使用相关的知识,希望对你有一定的参考价值。
urllib包括以下四个模块:
1.request:基本的HTTP请求模块,可以用来模拟发送请求。就像在浏览器里输入网址然后回车一样,只需要给库方法传入URL以及额外的参数,就可以模拟实现这个过程。
2.error:异常处理模块
3.parse:提供了许多URL处理方法,如拆分、解析、合并等
4.robotparser:主要用来识别网站的robots.txt文件,判断哪些网站可以爬(很少用)
1.1发送请求
1urlopen()
import urllib.request response = urllib.request.urlopen(\'https://baike.baidu.com/item/csdn/172150?fr=aladdin\') print(response.read().decode(\'UTF-8\')) #read()返回网页内容
结果:
#查看返回类型
import urllib.request response = urllib.request.urlopen(\'https://baike.baidu.com/item/csdn/172150?fr=aladdin\') print(type(response))
status属性
import urllib.request response = urllib.request.urlopen(\'https://baike.baidu.com/item/csdn/172150?fr=aladdin\') print(response.status) print(response.getheaders()) print(response.getheader(\'Server\'))
data参数
data参数是可选的,如果要添加该参数
以上是关于python爬虫urllib库使用的主要内容,如果未能解决你的问题,请参考以下文章
Python 爬虫之urllib库,及urllib库的4个模块基本使用和了解