python-爬虫-requests
Posted person1-0-1
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python-爬虫-requests相关的知识,希望对你有一定的参考价值。
requests库的使用
>>>特性
Keep-Alive&连接池
国际化域名和URL
带持久cookie的会话
浏览器式的SSL认证
自动内容解码
基本/摘要式的身份认证
优雅的key/value cookie
自动解压
Unicode响应体
HTTP(S)代理
文件分块上传
流下载
连接超时
分块请求
支持.netrc
2 请求方法
response = requests.get(‘https://httpbin.org/get’) response = requests.post(‘http://gttpbin.org/post’,data=‘key’:‘value’)
3传递URL参数
params = ‘key1’:‘value1’,‘key2’:‘value2’
response = requests.get(‘http://httpbin.org/get’,params=params)
4自定义Headers
headers = ‘user-agent’:‘my-app/0.0.1’ #自定义headers response = requests.get(url,headers=headers)
5自定义cookies
co = ‘cookies_are’:‘working’
response = requests.get(url,cookies=co)
6设置代理
proxies = ‘http’:‘http://10.10.1.10:3128’, ‘https’:‘https://10.10.1.10:1080’ requests.get(‘http://httpbin.org/ip’,proxies=proxy)
7重定向
response = requests.get(‘http://github.com’,allow_redirects=False)
8禁止证书验证
response = requests.get(‘http://httpbin.org/post’,verify=False) # 但是关闭验证后,会有一个比较烦人的warning,可以使用以下方法关闭警告 From requests.packages.urllib3.exceptions import InsecureRequestWarning requests.packages.urllib3.disable_warnings(InsecureRequestWarning)
9设置超时
requests.get(‘http://github.com’,timeout=0.01)
接收响应
>>>字符编码
response = requests.get(‘https://api.github.com/events’) response.encoding = ‘utf-8’ print(response.text)
>>>二进制数据
response = requests.get(‘https://api.github.com/events’) print(response.content)
>>>json数据
response = requests.get(‘https://api.github.com/events’) print(response.json())
>>>状态码
response = requests.get(‘http://httpbin.org/get’) print(response.status_code)
>>>服务器返回的cookies
response = requests.get(url) print(response.cookies[‘example_cookie_name’])
>>>session对象
session = requests.Session() session.get(‘http://httpbin.org/cookies/set/sessioncookie/123456789’) response = session.get(‘http://httpbin.org/cookies’) print(response.text) #“cookies”: “sessioncookie”: “123456789”
以上是关于python-爬虫-requests的主要内容,如果未能解决你的问题,请参考以下文章