一个咸鱼的Python爬虫之路:requests库

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了一个咸鱼的Python爬虫之路:requests库相关的知识,希望对你有一定的参考价值。

作为一个咸鱼大学打了3年游戏才幡然醒悟,现在开始学点东西,这里记录下自己的所学。

urllib库之前有些了解就不写了,从requests 库开始吧(ˉ▽ ̄~) 。

首先要说的是一定要用好官方文档:http://docs.python-requests.org/en/master/

先来看个列子吧:

 

技术分享

下面介绍requests库的几种基本用法:

技术分享

具体代码略过参考官方文档练习就好,这里面get是最常用的方法。

response对象包含了服务器返回的所有信息,也包含了requests的请求信息。

技术分享

属性

技术分享

 

给一个标准的爬取网页的代码:

 1 import requests
 2 
 3 def geturl(url):
 4    try:
 5        r=requests.get(url,timeout=100)
 6        r.raise_for_status()
 7        r.encoding=r.apparent_encoding  #替换编码有些网页猜测编码会报错
 8        return r.text
 9    except:
10        return "异常"
11 
12 
13 if __name__=="__main__":
14     url="http://jwweb.scujcc.cn/"
15     print(geturl(url))

 

 

代码中给的是我们学校的教务网网址如果不用r.apparent_encoding替换r.enconding会报编码错误大家可以试一下

 

 

第一次写这个也没有什么思路大佬轻喷,内容以后有新的理解也会加进来慢慢完善也希望大家给点建议。

以上是关于一个咸鱼的Python爬虫之路:requests库的主要内容,如果未能解决你的问题,请参考以下文章

一个咸鱼的python爬虫之路:scrapy 爬虫框架

一个咸鱼的Python爬虫之路:将爬取数据存入mysql

python之路 -- 爬虫二篇 -- 常用模块

数据之路 - Python爬虫 - urllib库

Rollo的Python之路Python 爬虫系统学习 Requests 模块学习

python之路_day96_爬虫之requests模块补充