- def _next_request_from_scheduler(self, spider): fetch一个request,调用http11 handler,client的agent,返回的是deffered。
- _handle_downloader_output()if isinstance(response, Request):如果是请求,继续爬行,调用crawl时会把请求放到调度器
self.crawl(response, spider) - def enqueue_scrape( 请求入队
- def _scrape_next(self, spider, slot):
- _scrape2
- call_spider
- handle_spider_output
- _process_spidermw_output
scrapy执行流程
Posted 王将军之武库
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了scrapy执行流程相关的知识,希望对你有一定的参考价值。
以上是关于scrapy执行流程的主要内容,如果未能解决你的问题,请参考以下文章