1python爬虫 request.urlopen请求网页获取源码

Posted toloy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了1python爬虫 request.urlopen请求网页获取源码相关的知识,希望对你有一定的参考价值。

# python3导入request包
from urllib import request
import sys
import io
# 如果需要用print打印时,如果出现异常可以先设置输出环境
sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding=‘utf-8‘)
# 需要获取的url
url = ‘http://www.xxx.com/‘
# 头文件
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36"
}
# 生成请求对象
req = request.Request(url, headers=headers)
# 调用request的urlopen方法发起请求,并返回结果对象,如果没有data参数时,则是get请求,否则是post请求
response = request.urlopen(req)
# 将结果写入html文件中,
with open(‘a.html‘, ‘wb‘) as f:
    f.write(response.read())
# 打印返回的状态码
print(response.getcode())
# 打印返回的url,防止重定向url变化 
print(response.url)

以上是关于1python爬虫 request.urlopen请求网页获取源码的主要内容,如果未能解决你的问题,请参考以下文章

[Python系列-20]:爬虫 - urllib.request.urlopen(), 函数无法返回的解决办法

爬虫之Urllib

爬虫小探-Python3 urllib.request获取页面数据

爬虫初探之urllib.request

爬虫-urllib-urlopen

《爬虫学习》(urllib库使用)