scrapy 管理部署的爬虫项目的python类
Posted 那人,那事,那代码
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy 管理部署的爬虫项目的python类相关的知识,希望对你有一定的参考价值。
# 测试浏览器弹窗的验证:
import requests
from urllib import parse
import logging
logging.basicConfig(level=logging.INFO)
class ScrapyManager(object):
def __init__(self, url, project_name, spider=None, username=None, pwd=None):
self.url = url
self.project_name = project_name
self.spider = spider
self.auth = (username, pwd)
def start_project(self):
"""
爬虫项目启动
:return:
"""
if not self.spider:
raise Exception(‘未提供爬虫名称!‘)
data = dict(
project=self.project_name,
spider=self.spider,
)
start_url = parse.urljoin(self.url, ‘schedule.json‘)
res = requests.post(url=start_url, data=data, auth=self.auth)
logging.info(res.text)
def del_project(self):
"""
项目删除
:return:
"""
data = dict(
project=self.project_name,
spider=self.spider,
)
start_url = parse.urljoin(self.url, ‘delproject.json‘)
res = requests.post(url=start_url, data=data, auth=self.auth)
logging.info(res.text)
def stop_job(self, job_id):
"""
停止任务
:param job_id: 任务id
:return:
"""
data = dict(
project=self.project_name,
job=job_id,
)
start_url = parse.urljoin(self.url, ‘cancel.json‘)
res = requests.post(url=start_url, data=data, auth=self.auth)
logging.info(res.text)
还有部分api接口没有添加进来,可以参照官方的文档添加.
以上是关于scrapy 管理部署的爬虫项目的python类的主要内容,如果未能解决你的问题,请参考以下文章
五十一 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目
Python3网络爬虫实战-12部署相关库的安装:DockerScrapyd