Scrapy 进行简单的自动登录

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy 进行简单的自动登录相关的知识,希望对你有一定的参考价值。

前面豆子学习了用Scrapy进行基本的get请求,现在来看看如何进行简单的post操作。以一个论坛为例,现在看看如何进行一个简单的登录请求。

豆子在澳洲经常上的一个论坛是新足迹论坛,网站是www.oursteps.com.au

简单的自动登录和跳转

1. 创建新的项目和爬虫文件

技术分享图片

技术分享图片

一个基本的模板就生成了
技术分享图片

2. 抓包获取登录的URL和请求字段

打开firefox,代理指向fiddler,然后点开fiddler,开始登录。fidder作为代理服务器,会把所有的请求内容都抓出来。

注意观察fidder的界面,向右的箭头代表是一个post请求
技术分享图片

查看具体的textview可以看见他提交的内容
技术分享图片

登录以后的论坛界面是这样
技术分享图片

3. 编辑我们的爬虫文件

# -*- coding: utf-8 -*-
import scrapy
from scrapy.http import Request,FormRequest

class LoginSpider(scrapy.Spider):
    name = ‘login‘
    allowed_domains = [‘oursteps.com.au‘]
        #这个默认的起点网址可以不用,因为我们下面配置了start-requests的方法,他们的功能类似,都是去爬第一个起始的网址
    #start_urls = [‘http://oursteps.com.au/‘]
        #这个header可以是任何浏览器的头文件,用于伪装
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (Khtml, like Gecko) Chrome/38.0.2125.122 Safari/537.36 SE 2.X MetaSr 1.0"
    }

    #里面的查询地址最好是使用在fidder里面看见的地址,cookiejar设为真,parse是用一个回调函数,执行爬取信息之后对应的操作
    def start_requests(self):
        return [Request("http://www.oursteps.com.au/", meta={"cookiejar": 1}, callback=self.parse)]

    #发送一个post请求,数据是字典格式的,发送完了之后执行另外一个回调函数
    def parse(self, response):
        data = {
            "username": "beanxyz",
            "password": "Snake2013",
        }

        print("login…")
        # 通过FormRequest.from_response()进行登陆
        return [FormRequest.from_response(response,
                                          # 设置cookie信息
                                          meta={"cookiejar": response.meta["cookiejar"]},
                                          # 设置headers信息模拟成浏览器
                                          headers=self.header,
                                          # 设置post表单中的数据
                                          formdata=data,
                                          # 设置回调函数,此时回调函数为next()
                                          callback=self.next,
                                          )]

#回调函数,直接把返回的页面保存下来
    def next(self,response):
        data=response.body
        #注意是二进制格式
        fh=open("C:/temp/ourstep/a.html","wb")
        fh.write(data)
        fh.close()
#登录成功了之后,再跳转到另外一个页面去,记住带着cookie的状态
        yield Request("http://www.oursteps.com.au/bbs/home.php?mod=space&uid=19783",callback=self.next2,meta={"cookiejar": True})

#保存新页面的内容
    def next2(self,response):
        data=response.body
        fh = open("C:/temp/ourstep/b.html", "wb")
        fh.write(data)
        fh.close()

4.执行爬虫

技术分享图片

5.确认结果

登录成功后的界面
技术分享图片

跳转到个人档案的界面
技术分享图片

以上是关于Scrapy 进行简单的自动登录的主要内容,如果未能解决你的问题,请参考以下文章

scrapy主动退出爬虫的代码片段(python3)

python网络爬虫之使用scrapy自动登录网站

scrapy按顺序启动多个爬虫代码片段(python3)

Scrapy基础(十三)————ItemLoader的简单使用

通过Scrapy抓取QQ空间

在与 Scrapy 进行身份验证的登录会话后使用 Selenium