Scrapy源码流程简述
Posted jintian
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy源码流程简述相关的知识,希望对你有一定的参考价值。
crawl与twisted原理一样
from twisted.internet import defer from twisted.web.client import getPage from twisted.internet import reactor def download(*args,**kwargs): print(args,kwargs) def stop(*args,**kwargs): reactor.stop() @defer.inlineCallbacks def task(url): v = getPage(url.encode(‘utf-8‘)) v.addBoth(download) yield v if __name__ == ‘__main__‘: url_list = [ "http://www.baidu.com", "http://www.bing.com", "http://dig.chouti.com", ] _active = set() for url in url_list: d = task(url) _active.add(d) dd = defer.DeferredList(_active) dd.addBoth(stop) reactor.run()
以上是关于Scrapy源码流程简述的主要内容,如果未能解决你的问题,请参考以下文章