2.Python爬虫入门_requests

Posted 好好学习,天天向上

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了2.Python爬虫入门_requests相关的知识,希望对你有一定的参考价值。

 1 #2019-11-23
 2 #requests的api使用非常简单
 3 import requests
 4 import time
 5 
 6 if __name__==__main__:
 7     # get请求
 8     url_get=http://www.httpbin.org/get  #测试网站
 9     response_get=requests.get(url=url_get)
10     #1.response.text 返回的是Unicode型的数据,适合得到文本
11     #2.response.content 返回的是bytes型的数据,适合得到图片,视频(网络编程中,服务器和浏览器只认bytes类型数据)
12     #2.response.headers 报文头
13     print(get_text
,response_get.text)
14     print(get_content
,response_get.content)
15     print(get_header
,response_get.headers)
16     print(


)
17 
18     # post请求(可以传递参数)
19     url_post=http://www.httpbin.org/post  #测试网站 
20     response_post=requests.get(url=url_post,data={name:softpo,id:pie}) #以字典方式传递参数
21     #对于真实网站,如果参数不对,可能根本无法获取返回
22     #1.response_post.text
23     #2.response_post.content
24     #3.response_post.headers
25     print(post_text
,response_post.text)
26     print(post_content
,response_post.content)
27     print(post_headers
,response_post.headers)
28     
29     
30     #图片练习
31     url_picture=http://c.hiphotos.baidu.com/image/pic/item/6c224f4a20a44623c3f7f2649722720e0cf3d7f3.jpg
32     response_picture=requests.get(url=url_picture)
33     #创建一个.jpg文件,以二进制的方式进行写入
34     with open(picture.jpg,wb) as fp: 
35         content=response_picture.content
36         fp.write(content)
37         print(picture保存成功!)
38         
39         
40     #百度贴吧   贴吧url尾号第一页0,第二页50,第三页100....
41     url_tieba=http://tieba.baidu.com/f?kw=%E6%9D%AD%E5%B7%9E%E7%94%B5%E5%AD%90%E7%A7%91%E6%8A%80%E5%A4%A7%E5%AD%A6&ie=utf-8&pn=
42     for i in range(10):
43         print(url_tieba+str(i*50))
44         response_tieba=requests.get(url_tieba)
45         html=response_tieba.text
46         with open(./TieBa/%d.html%(i+1),mode=w,encoding=utf-8) as fp: #自己设定文件目录
47             fp.write(html)
48             print(贴吧第%d页保存成功!%(i+1))
49         time.sleep(2) #如果对方有防护措施,可以使用time.sleep(n)进行休眠一段时间(n秒)

 

以上是关于2.Python爬虫入门_requests的主要内容,如果未能解决你的问题,请参考以下文章

如何入门 Python 爬虫

scrapy框架中的Request对象以及Response对象的介绍python爬虫入门进阶(19)

python爬虫入门

Python爬虫之Requests库入门

Python 爬虫从入门到放弃,网络爬虫应用实战

Python 爬虫从入门到放弃,网络爬虫应用实战