python-爬虫-requests

Posted person1-0-1

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python-爬虫-requests相关的知识,希望对你有一定的参考价值。

requests库的使用

>>>特性

Keep-Alive&连接池

国际化域名和URL

带持久cookie的会话

浏览器式的SSL认证

自动内容解码

基本/摘要式的身份认证

优雅的key/value cookie

自动解压

Unicode响应体

HTTP(S)代理

文件分块上传

流下载

连接超时

分块请求

支持.netrc

2 请求方法

response = requests.get(‘https://httpbin.org/get’)
response = requests.post(‘http://gttpbin.org/post’,data=‘key’:value’)

3传递URL参数

params = ‘key1’:‘value1’,‘key2’:‘value2’
response = requests.get(‘http://httpbin.org/get’,params=params)

4自定义Headers

headers = ‘user-agent’:‘my-app/0.0.1’ #自定义headers
response = requests.get(url,headers=headers)

5自定义cookies

co = ‘cookies_are’:‘working’
response = requests.get(url,cookies=co)

6设置代理

proxies = 
‘http’:‘http://10.10.1.10:3128’,
‘https’:‘https://10.10.1.10:1080’

requests.get(‘http://httpbin.org/ip’,proxies=proxy)

7重定向

response = requests.get(‘http://github.com’,allow_redirects=False)

8禁止证书验证

response = requests.get(‘http://httpbin.org/post’,verify=False)

# 但是关闭验证后,会有一个比较烦人的warning,可以使用以下方法关闭警告

From requests.packages.urllib3.exceptions import InsecureRequestWarning

requests.packages.urllib3.disable_warnings(InsecureRequestWarning)

9设置超时

requests.get(‘http://github.com’,timeout=0.01)

 

接收响应

 

>>>字符编码

response = requests.get(‘https://api.github.com/events’)
response.encoding = ‘utf-8print(response.text)

>>>二进制数据

response = requests.get(‘https://api.github.com/events’)
print(response.content)

>>>json数据

response = requests.get(‘https://api.github.com/events’)
print(response.json())

>>>状态码

response = requests.get(‘http://httpbin.org/get’)
print(response.status_code)

>>>服务器返回的cookies

response = requests.get(url)
print(response.cookies[‘example_cookie_name’])

>>>session对象

session = requests.Session()

session.get(‘http://httpbin.org/cookies/set/sessioncookie/123456789’)

response = session.get(‘http://httpbin.org/cookies’)

print(response.text)

#“cookies”: “sessioncookie”: “123456789”

 

以上是关于python-爬虫-requests的主要内容,如果未能解决你的问题,请参考以下文章

爬虫基础之Requests

Python之路第十九篇:爬虫

Python之路第十九篇:爬虫

python requests库学习

爬虫的入门以及scrapy

requests