爬虫日记(74):Scrapy项目配置参数源码分析

Posted caimouse

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫日记(74):Scrapy项目配置参数源码分析相关的知识,希望对你有一定的参考价值。

前面已经知道scrapy程序运行之后,会调用execute()函数来执行,这是程序入口点,而在这个入口点的背后,第一步做的事情就是获得程序所有的配置参数,因为scrapy程序设计为非常灵活的程序,基本任何模块和组件都是通过配置文件来定制,如果对这个不了解,建议看一下我前面发的文章。

def get_project_settings():
    if ENVVAR not in os.environ:
        project = os.environ.get(\'SCRAPY_PROJECT\', \'default\')
        init_env(project)

    settings = Settings()
    settings_module_path = os.environ.get(ENVVAR)
    if settings_module_path:
        settings.setmodule(settings_module_path, priority=\'project\')

    pickled_settings = os.environ.get("SCRAPY_PICKLED_SETTINGS_TO_OVERRIDE")
    if pickled_settings:
        warnings.warn("Use of environment variable "
                      "\'SCRAPY_PICKLED_SETTINGS_TO_OVERRIDE\' "
                      "is deprecated.", ScrapyDeprecationWarning)
        settings.setdict(pi

以上是关于爬虫日记(74):Scrapy项目配置参数源码分析的主要内容,如果未能解决你的问题,请参考以下文章

爬虫日记(76):Scrapy的命令行源码分析

爬虫日记(75):Scrapy的Settings源码分析

爬虫日记(75):Scrapy的Settings源码分析

爬虫日记(76):Scrapy的命令行源码分析三

爬虫日记(88):Scrapy的Downloader类

爬虫日记(76):Scrapy的命令行源码分析二