requests应用

Posted xihuanniya

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了requests应用相关的知识,希望对你有一定的参考价值。

      一、简介

什么是requests模块:

requests模块是python中原生的基于网络请求的模块,其主要作用是用来模拟浏览器发起请求。功能强大,用法简洁高效。在爬虫领域中占据着半壁江山的地位。

为什么要使用requests模块

  • 因为在使用urllib模块的时候,会有诸多不便之处,总结如下:
    • 手动处理url编码
    • 手动处理post请求参数
    • 处理cookie和代理操作繁琐
    • ......
  • 使用requests模块:
    • 自动处理url编码
    • 自动处理post请求参数
    • 简化cookie和代理操作
    • ......

      二、使用

安装:

  • pip install requests

requests模块的使用流程

  • - 指定url
  • - 发起请求
  • - 获得响应数据
  • - 持久化存储

            案例:

        1、爬取搜狗搜索后的响应页面

import requests

url = ‘https://www.sogou.com/web‘

# 处理参数
wd = input("enter a word: ")
param = {
    ‘query‘:wd
}

# UA伪装
# User-Agent 请求头信息。请求载体的身份标识
headers = {
    ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (Khtml, like Gecko) Chrome/69.0.3497.12 Safari/537.36‘
}

# 发起请求
response = requests.get(url,params=param,headers=headers)

# 获取响应数据
page_text = response.content

# 持久化存储
fileName = wd + ".html"
with open(fileName, ‘wb‘) as f:
    f.write(page_text) 
    
print(f"{wd}下载成功")

  在爬取并存储图片时urllib模块比较方便

# 使用urllib模块爬取图片
from urllib import request

url = "https://gss2.bdstatic.com/9fo3dSag_xI4khGkpoWK1HF6hhy/baike/w%3D268%3Bg%3D0/sign=081aba3563224f4a5799741531ccf76f/c83d70cf3bc79f3d423d2823b4a1cd11738b29c1.jpg"
request.urlretrieve(url=url, filename=‘ycy.jpg‘)

  

2、用requests模块发起post请求获取百度翻译后的结果

import requests
headers = {
    ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.12 Safari/537.36‘
}
url = ‘https://fanyi.baidu.com/sug‘  # ajax请求
wd = input("enter a english word: ")

# 参数的处理
data = {
    "kw": wd
}

# 发送post请求
response = requests.post(url=url,data=data,headers=headers)

# 如果确定返回的是json格式的数据,就可以直接.json拿到json对象
json_data = response.json()
print(json_data)
print(type(response.text))

  

3、肯德基门店查询

import requests
headers = {
    ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.12 Safari/537.36‘
}
url = "http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword"
wd = input(‘请输入查询地点:‘)

data = {
    ‘cname‘: ‘‘,
    ‘pid‘: ‘‘,
    ‘keyword‘: wd,
    ‘pageIndex‘: ‘1‘,
    ‘pageSize‘: ‘100‘,
}
json_data = requests.post(url=url, data=data, headers=headers).json()
print(json_data)

  

4、爬取化妆品生产许可信息管理系统服务平台http://125.35.6.84:81/xk/,每个公司详情页的数据。

需求分析: 指定页面的公司,该公司的详情页数据

# 域名:http://125.35.6.84:81/xk/
import requests
headers = {
    ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.12 Safari/537.36‘
}
# 首页url
url = ‘http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList‘
id_list = []
start_page= int(input(‘起始页:‘))
end_page= int(input(‘结束页:‘))
for i in range(start_page,end_page+1):
    data = {
        ‘on‘: ‘true‘,
        ‘page‘: str(i),
        ‘pageSize‘: ‘15‘,
        ‘productName‘:‘‘ ,
        ‘conditionType‘: ‘1‘,
        ‘applyname‘: ‘‘,
        ‘applysn‘: ‘‘,
    }
    json_data = requests.post(url=url,data=data,headers=headers).json()
    # print(json_data)
    for item in json_data[‘list‘]:
        id_list.append(item["ID"])
        
# 详情页url
url2 = ‘http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById‘
for id_item in id_list:
    data_id = {
        ‘id‘: id_item
    }
    json_data2 = requests.post(url=url2,data=data_id,headers=headers).json()
    print(json_data2)

  

以上是关于requests应用的主要内容,如果未能解决你的问题,请参考以下文章

C#-WebForm-★内置对象简介★Request-获取请求对象Response相应请求对象Session全局变量(私有)Cookie全局变量(私有)Application全局公共变量Vi(代码片段

推进学说代码片段

Motan在服务provider端用于处理request的线程池

302 登录重定向后被 IE 删除的 URL 片段

[未解决问题记录]python asyncio+aiohttp出现Exception ignored:RuntimeError('Event loop is closed')(代码片段

你如何在 python 中处理 graphql 查询和片段?