scrapy 管理部署的爬虫项目的python类

Posted 那人,那事,那代码

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy 管理部署的爬虫项目的python类相关的知识,希望对你有一定的参考价值。

# 测试浏览器弹窗的验证:
import requests
from urllib import parse
import logging

logging.basicConfig(level=logging.INFO)


class ScrapyManager(object):
    def __init__(self, url, project_name, spider=None, username=None, pwd=None):
        self.url = url
        self.project_name = project_name
        self.spider = spider
        self.auth = (username, pwd)

    def start_project(self):
        """
        爬虫项目启动
        :return:
        """
        if not self.spider:
            raise Exception(‘未提供爬虫名称!‘)
        data = dict(
            project=self.project_name,
            spider=self.spider,
        )
        start_url = parse.urljoin(self.url, ‘schedule.json‘)
        res = requests.post(url=start_url, data=data, auth=self.auth)
        logging.info(res.text)

    def del_project(self):
        """
        项目删除
        :return:
        """
        data = dict(
            project=self.project_name,
            spider=self.spider,
        )
        start_url = parse.urljoin(self.url, ‘delproject.json‘)
        res = requests.post(url=start_url, data=data, auth=self.auth)
        logging.info(res.text)

    def stop_job(self, job_id):
        """
        停止任务
        :param job_id: 任务id
        :return:
        """
        data = dict(
            project=self.project_name,
            job=job_id,
        )
        start_url = parse.urljoin(self.url, ‘cancel.json‘)
        res = requests.post(url=start_url, data=data, auth=self.auth)
        logging.info(res.text)

还有部分api接口没有添加进来,可以参照官方的文档添加.

https://scrapyd.readthedocs.io/en/latest/api.html

以上是关于scrapy 管理部署的爬虫项目的python类的主要内容,如果未能解决你的问题,请参考以下文章

五十一 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目

Docker部署Python爬虫项目

最方便分布式爬虫管理框架--Gerapy

Python3网络爬虫实战-12部署相关库的安装:DockerScrapyd

阿里云WindowsServer部署python scrapy爬虫

分布式爬虫的部署之Scrapyd对接Docker