Python-爬虫-基本库(requests)使用

Posted ygzhaof_100

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python-爬虫-基本库(requests)使用相关的知识,希望对你有一定的参考价值。

requests库比urllib跟家方便操作Cookie、登录验证、代理设置等;

例如:

 1 #requests库,get请求
 2 import requests
 3 #请求数据
 4 data={
 5     \'name\':"JONES",
 6     \'age\':34
 7 }
 8 r = requests. get(\'http://httpbin.org/get\',params=data)
 9 print(type(r))
10 print(r.status_code)
11 print (type(r.text))
12 print(r. text)
13 print(r.cookies)
14 print(r.json())#获取一个json对象
15 print(type(r.json()))

除了get方法以外,可以通过post、put、delete、head、options方法实现不同方式的请求;

注意:上面如果相应结果不是json格式,则r.json()方法会报异常错误;

抓取一个网页,例如:

 1 #requests库,get请求
 2 import requests
 3 import re
 4 headers={\'Accept\':\'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8\',
 5          \'Host\':    \'www.zhihu.com\',
 6          \'User-Agent\':\'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:64.0) Gecko/20100101 Firefox/64.0\'
 7          }
 8 r = requests. get(\'https://www.zhihu.com/explore\',headers=headers)
 9 pattern=re.compile(\'explore-feed.*?question_link.*?>(.*?)</a>\',re.S)
10 titles=re.findall(pattern,r.text)
11 print(titles)
12 print(type(r))
13 print(r.status_code)
14 print (type(r.text))
15 #print(r. text)
16 print(r.cookies)
17 
18 #抓取一个二进制的图片
19 import requests
20 r=requests.get(\'https://github.com/favicon.ico\')
21 print(r. text)
22 print(r.content)
23 # f=open(\'abc.ico\',\'wb\')
24 # f.write(r.content)
25 # f.close()
26 with open(\'abc.ico\',\'wb\') as f:
27     f.write(r.content)
28     f.close()
通过设置:\'User-Agent\':\'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:64.0) Gecko/20100101 Firefox/64.0\'
来模拟一个浏览器访问服务,否则无法访问;

响应常见状态码如下:
成功状态:
200(‘ok’,\'okay\',\'all_ok\',\'all_okay\',\'all_good\',\'\\\\o/\',\'√\')
客户端错误状态码:
404(‘not_found’,\'-o-\')
服务器端错误:
500(‘internal_server_error’,\'server_error\',\'/o\\\\\',\'×\')
例如:
if not r.status_code==requests.codes.ok :
print(\'Request Error\')
else:
print(\'Request Successfully\')

#############################
高级用法:
例如,上传文件:
#文件上传
files={\'file\':open(\'abc.ico\',\'rb\')}
sr=requests.post("http://httpbin.org/post",files=files)
print(sr.text)


响应结果:
{
  "args": {},
  "data": "",
  "files": {
    "file": "data:application/octet-stream;base64,AAAB 。。。 AAAAAAAAAAAAAAAAAAA AAAAAAAAAAAAAAAAAAA。。。="
  },
  "form": {},
  "headers": {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate",
    "Connection": "close",
    "Content-Length": "6661",
    "Content-Type": "multipart/form-data; boundary=411e5e7f2f319c860f57b1f6d7839f7e",
    "Host": "httpbin.org",
    "User-Agent": "python-requests/2.21.0"
  },
  "json": null,
  "origin": "ip这里略",
  "url": "http://httpbin.org/post"
}


使用requests库处理Cookie:
下面两个请求,一个请求访问博客园地址,没有加headers设置,且登录前访问的url,注意:由于博客园首页地址会被重定向;因此会报异常,所以没设置headers,要设置则会报错(TomanyRedirc错误);
第二个请求则是登录成功后, 浏览器Debug查看cookie,加入headers,直接访问登陆后的列表;抓取我的博客园中发布的博客题目列表;
 1 import requests
 2 import re
 3 #访问博客园:https://i.cnblogs.com/ 直接加入headers属性后,由于该地址会重定向,因此会报错误TooManyRedirect异常
 4 #根据响应结果,在获取重定向URL
 5 #登录前,发送的请求
 6 r=requests.get("https://i.cnblogs.com/")#,allow_redirects=False)#allow_redirects=False忽略重定向,就不会报TooManyRedirct,结果不是我们要的
 7 print(r.cookies)
 8 for key,value in r.cookies.items():
 9     print(key+\'=\'+value)
10 print(r.text)
11 print("重定向URL为:",r.url)
12 
13 #登录成功后,获取登录成功后响应的Cookie,然后发送请求,获取个人发布的所有博客标题列表
14 headers = {\'Accept\': \'Accept    text/html,application/xhtml+xml,*/*\',
15            \'Host\': \'i.cnblogs.com\',
16            \'User-Agent\': \'User-Agent    Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko\',
17            \'Cookie\':\'td_cookie=18446744071949694669; SERVERID=a15b3bd10716e69d8be538bb89e87a05|1545789639|1545788153; _ga=GA1.2.2025196660.1543803050; __gads=ID=0acaebdef222f985:T=1543803056:S=ALNI_Mb4z_obzMRA-KI6xe7ms4H9T1F6aA; _gid=GA1.2.1065648169.1545718072; .CNBlogsCookie=1C1655941CDFCB0648208766D9FA57E2114A6F237B40201383F6906E7C528F42536F097A19008BBEA6DCCEAE1A6C0D2F9EF07AF5FDFD9E6D7F7A8BBE8655A75F0376CE8E8A1B712CC57F47D55C2ABCCD5C54D16A99779E980761B8C28070D088EC28C310; .Cnblogs.AspNetCore.Cookies=CfDJ8KlpyPucjmhMuZTmH8oiYTOnSN3OilBek6jhgR41R5Mez_H24LhyvqvRFrMeN_1T8cVypF0H9RrB4jhc0M5RpHR7-eqTd93eAvka-nV2OSFItlJwuO_-IOuZJYJU5FODierauD6wokWHE1o7bHvNixE-u9jzhi4m8nv5AgMMlN5JbDeJqbEh6o7zJQ8ho00nRQGjIQtOsPFIzDwWqHaD8dhUvPQ_js3IEb8rtrO_rNws27gJ0LZWRXZIq2FmNow2YtiF7xXgPngu_Ttk4WveBAVtyHxWy3U4RA2FR69UXdgw\'
18            }
19 i=1
20 while True:
21 
22     res=requests.get("https://i.cnblogs.com/",headers=headers,params={\'page\':i})
23     #print(res.text)
24     pattern=re.compile("post_title_link_.*?>(.*?)</a>",re.S)
25     titles=re.findall(pattern,res.text)
26     if (len(titles) == 0):
27         break
28     print(\'################################\')
29     print("我的博客列表标题>>第%s页>>>%s" %(i,titles))
30     print("详情:")
31 
32     for title in titles:
33         print(title)
34     i+=1

 

 


上面cookie字符串,设置在了headers中,然后跟着请求发送给服务器端;
也可以通过RequestCookieJar对象,传递:
代码片段:
#不再headers中设置cookie那么也可以像下面一样,将cookie字符串拆分,通过RequestCookieJar对象封着后提交
cookies=\'td_cookie=18446744071949694669; SERVERID=a15b3bd10716e69d8be538bb89e87a05|1545789639|1545788153; _ga=GA1.2.2025196660.1543803050; __gads=ID=0acaebdef222f985:T=1543803056:S=ALNI_Mb4z_obzMRA-KI6xe7ms4H9T1F6aA; _gid=GA1.2.1065648169.1545718072; .CNBlogsCookie=1C1655941CDFCB0648208766D9FA57E2114A6F237B40201383F6906E7C528F42536F097A19008BBEA6DCCEAE1A6C0D2F9EF07AF5FDFD9E6D7F7A8BBE8655A75F0376CE8E8A1B712CC57F47D55C2ABCCD5C54D16A99779E980761B8C28070D088EC28C310; .Cnblogs.AspNetCore.Cookies=CfDJ8KlpyPucjmhMuZTmH8oiYTOnSN3OilBek6jhgR41R5Mez_H24LhyvqvRFrMeN_1T8cVypF0H9RrB4jhc0M5RpHR7-eqTd93eAvka-nV2OSFItlJwuO_-IOuZJYJU5FODierauD6wokWHE1o7bHvNixE-u9jzhi4m8nv5AgMMlN5JbDeJqbEh6o7zJQ8ho00nRQGjIQtOsPFIzDwWqHaD8dhUvPQ_js3IEb8rtrO_rNws27gJ0LZWRXZIq2FmNow2YtiF7xXgPngu_Ttk4WveBAVtyHxWy3U4RA2FR69UXdgw\'
cookiejar=requests.cookies.RequestsCookieJar()
for items in cookies.split(";"):
    k,v =items.split(\'=\',1)#=号分割,分割成2个字段
    cookiejar.set(k,v)
1  res=requests.get("https://i.cnblogs.com/",headers=headers,params={\'page\':i},cookies=cookiejar)#通过cookies提交cookie

以上结果是一样的;


如何在同一个session下访问一个网站的不同URL?
在requests库中,通过get或者post方法可以模拟网页来访问一个URL,如果多次访问该网站的多个URL,则相当于是在不同会话下进行的访问,等同于
打开了多个浏览器访问不同URL;
例如:第一个请求利用post方法登录这个网站,后来第二个请求get来获取个人信息;此时两次请求会创建两次会话,即不同的Session;如何保证这两个请求时维持在同一
会话;
(1)两次请求设置同一个cookies来解决,烦琐,放弃
(2)利用Session对象解决
例如:
两次请求,在不同的session会话:
两次请求,在同一个session会话:
 1 import requests
 2 #访问同一个站点的两个url,不在同一个会话session
 3 requests.get("http://httpbin.org/cookies/set/number/123456")
 4 r=requests.get("http://httpbin.org/cookies")
 5 print(r.text)
 6 
 7 #访问同一个站点,不同url,在同一个会话内;则使用session
 8 session=requests.Session()
 9 session.get(\'http://httpbin.org/cookies/set/number/123456\')
10 rs=session.get(\'http://httpbin.org/cookies\')
11 print(rs.text)

结果:

{
  "cookies": {}
}

{
  "cookies": {
    "number": "123456"
  }
}

关于SSL证书验证,requests提供了关于证书验证的功能,当放松HTTP请求时,会自动检查SSL证书,我们可以使用verify参数控件是否检查此证书;该参数默认为True,即会自动验证;

12306早期没有使用国际SSL认证标准,因此访问时会有验证错误,要求下载证书;现在直接访问即可;

注意:

response = requests.get (\'https://www.12306.cn\',verify=False)
print(response.status_code)

设置verify可以忽略认证,但是会有警告:

 

提醒我们给他指定证书,下面方式可以屏蔽掉警告:
1 import urllib3
2 import requests
3 #12306已经支持SSL认证,不需要设置verify=False,下面只是演示
4 #但是设置为False后会有警告,下面来演示如何屏蔽警告
5 urllib3.disable_warnings()#忽略警告
6 response = requests.get (\'https://www.12306.cn\',verify=False)
7 print(response.status_code)

 

1 import urllib3
2 import requests
3 import logging
4 #12306已经支持SSL认证,不需要设置verify=False,下面只是演示
5 #但是设置为False后会有警告,下面来演示如何屏蔽警告
6 logging.captureWarnings(True)#通过捕获警告日志方式忽略警告
7 response = requests.get (\'https://www.12306.cn\',verify=False)
8 print(response.status_code)

 代理设置(此处大概介绍,后续会单独说)

可以通过proxies属性类设置代理,此处略,后续单独说;

超时设置

由于网络状态不好或者服务器网络响应慢导致无法响应,甚至接收不到响应报错,可设置timeout参数来设置响应时间;

例如:r=requests.get(‘https:www.baidu.com’,timeout=1) #实际设置连接、读取 总和为1秒

如果单独设置则:r=requests.get(‘https:www.baidu.com’,timeout=(5,11,20))

如果想一直等待下去,则timeout=None,这也是其默认值;

 关于认证:

例如:开启tomcat,访问http://localhost:8080/manager/html

此时会显示

此时如下程序进行验证:

不认证是访问:

1 import requests
2 from  requests.auth import HTTPBasicAuth
3 #访问同一个站点的两个url,不在同一个会话session
4 r=requests.get("http://localhost:8080/manager/html")
5 print(r.status_code)

结果401状态码

认证访问:

1 import requests
2 from  requests.auth import HTTPBasicAuth
3 #访问同一个站点的两个url,不在同一个会话session
4 r=requests.get("http://localhost:8080/manager/html",auth=HTTPBasicAuth(\'admin\',\'admin\'))
5 print(r.status_code)

结果200状态码

或者auth=(\'admin\',\'admin\')替代auth=HTTPBasicAuth(\'admin\',\'admin\')

 

Prepared Request对象

Request对象可以将url、data、hreaders封装,在调用Session的prepare_request()方法转为Prepared Request对象,然后调用

send()方法发送请求;这样可以讲请求作为独立对象看待,有利于后期队列调度不同请求;

 

 1 #PreparedRequest对象
 2 from requests import  Request,Session
 3 url="http://httpbin.org/post"
 4 data={\'name\':"JONES"}
 5 headers={
 6 \'User-Agent\':\'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:64.0) Gecko/20100101 Firefox/64.0\'
 7 }
 8 req=Request(\'POST\',url,data=data,headers=headers)
 9 session=Session()
10 prep=session.prepare_request(req)
11 r=session.send(prep)
12 print(r.text)

 

 

 

 

 

 

 

 

 

 

 

 









 

 

 

 



 

以上是关于Python-爬虫-基本库(requests)使用的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫--Requests 库用法大全

python3网络爬虫学习——基本库的使用

Python-爬虫-基本库(requests)使用-抓取猫眼电影Too100榜

Python爬虫编程思想(20):requests网络库的基本用法

python爬虫之reuqests库,及基本使用

python爬虫之reuqests库,及基本使用