celery 调用scrapy

Posted walkonmars

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了celery 调用scrapy相关的知识,希望对你有一定的参考价值。

  我的环境: celery 3.1.25 python 3.6.9 window10

 

celery tasks 代码如下,其中 QuotesSpider 是我的scrapy项目爬虫类名称

from celery_app import app
from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings
from tutorial.spiders.quotes import QuotesSpider

def crawl_run():
scope = ‘all‘
process = CrawlerProcess(settings=get_project_settings())
process.crawl(QuotesSpider, scope)
process.start()
process.join()

@app.task(queue=‘default‘)
def execute_task():
return crawl_run()

以上是关于celery 调用scrapy的主要内容,如果未能解决你的问题,请参考以下文章

php怎么调用celery任务

为第三方 HTTP 调用优化 Celery

在 Python 中使用 celery 调用类的实例方法

如何设置 Celery 在运行任务之前调用自定义初始化函数?

celery 调用scrapy

调用挂在 Heroku 环境中的 celery 任务