Python爬虫3-----浏览器伪装

Posted 咫片炫

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python爬虫3-----浏览器伪装相关的知识,希望对你有一定的参考价值。

1、浏览器伪装技术原理

当爬取CSDN博客时,会发现返回403,因为对方服务器会对爬虫进行屏蔽,故需伪装成浏览器才能爬取。浏览器伪装一般通过报头进行。

2、获取网页的报头

3、代码:

import urllib.request
url="https://blog.csdn.net/blogdevteam/article/details/80324831"
header=("User-Agent","https://blog.csdn.net/blogdevteam/article/details/80324831")
#build_opener可以添加报头信息
opener=urllib.request.build_opener()
#添加报头
opener.addheaders=[header]
data=opener.open(url).read()
\'\'\'
#如果用urlopen来打开网页获取数据,则采用install_opener函数
#urllib.request.install_opener(opener)
#data=urllib.request.urlopen(url).read().decode("utf-8","ignore")
print(data)

 

以上是关于Python爬虫3-----浏览器伪装的主要内容,如果未能解决你的问题,请参考以下文章

python爬虫之伪装浏览器

scrapy按顺序启动多个爬虫代码片段(python3)

python爬虫获取浏览器payload?

Python爬虫5-利用usergent伪装访问方式

Python3 爬虫实例 -- 伪装浏览器

Python3 爬虫 -- 伪装浏览器