Scrapy源码流程简述

Posted jintian

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy源码流程简述相关的知识,希望对你有一定的参考价值。

crawl与twisted原理一样

技术图片
from twisted.internet import defer
from twisted.web.client import getPage
from twisted.internet import reactor


def download(*args,**kwargs):
    print(args,kwargs)

def stop(*args,**kwargs):
    reactor.stop()

@defer.inlineCallbacks
def task(url):
    v = getPage(url.encode(utf-8))
    v.addBoth(download)
    yield v

if __name__ == __main__:
    url_list = [
        "http://www.baidu.com",
        "http://www.bing.com",
        "http://dig.chouti.com",
    ]
    _active = set()
    for url in url_list:
        d = task(url)
        _active.add(d)

    dd = defer.DeferredList(_active)
    dd.addBoth(stop)
    reactor.run()
test.py

技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片技术图片

以上是关于Scrapy源码流程简述的主要内容,如果未能解决你的问题,请参考以下文章

最高效的python爬虫框架有几个

Spring源码--01--Spring IOC简述

scrapy 学习之路

scrapy 学习之路

dhcp1.0源码分析,讲解dhcpd的源码流程。

scrapy-redis 分布式 案例一