爬虫日记(83):Scrapy的CrawlerProcess类(三)

Posted caimouse

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫日记(83):Scrapy的CrawlerProcess类(三)相关的知识,希望对你有一定的参考价值。

前面完成了CrawlerRunner类构造函数的分析,接着从哪里继续开始呢?我想应该按顺序执行的主线来进行,可以从之前运行的命令里看到执行下面的函数:

class Command(BaseRunSpiderCommand):

    def run(self, args, opts):

       ...

 

        crawl_defer = self.crawler_process.crawl(spname, **opts.spargs)

所以我们可以从crawl函数来入手,它们之间的调用关系如下图:

以上是关于爬虫日记(83):Scrapy的CrawlerProcess类(三)的主要内容,如果未能解决你的问题,请参考以下文章

爬虫日记(83):Scrapy的CrawlerProcess类(三)

爬虫日记(83):Scrapy的CrawlerProcess类(二)

爬虫日记(63):Scrapy的设置参数-日志

爬虫日记(73):Scrapy程序运行入口点分析

爬虫日记(75):Scrapy的Settings源码分析

爬虫日记(74):Scrapy项目配置参数源码分析(二)