第十篇 scrapy item loader机制

Posted 爬行的龟

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第十篇 scrapy item loader机制相关的知识,希望对你有一定的参考价值。

在我们执行scrapy爬取字段中,会有大量的和下面的代码,当要爬取的网站多了,要维护起来很麻烦,为解决这类问题,我们可以根据scrapy提供的loader机制

    def parse_detail(self, response):
        """
        获取文章详情页
        :param response:
        :return:
        """
        article_item = JoBoleArticleItem()

        #封面图,使用get方法有个好处,如果图片不存在。不会抛异常。
        front_image_url = response.meta.get("front_image_url","")
        ret_str = response.xpath(\'//*[@class="dht_dl_date_content"]\')
        title = response.css("div.entry-header h1::text").extract_first()
        create_date = response.css("p.entry-meta-hide-on-mobile::text").extract_first().strip().replace("·", "").strip()
        content = response.xpath("//*[@id=\'post-112239\']/div[3]/div[3]/p[1]")
        article_item["title"] = title

首先,导入 ItemLoader 

from scrapy.loader import ItemLoader

 可以查看源码,这里先关注的是item和response两入参

 

        #通过item loader加载item
        item_loader = ItemLoader(item=JoBoleArticleItem(),response=response)
        #针对直接取值的情况
        item_loader.add_value(\'front_image_url\',\'front_image_url\')
        #针对css选择器
        item_loader.add_css(\'title\',\'div.entry-header h1::text\')
        item_loader.add_css(\'create_date\',\'p.entry-meta-hide-on-mobile::text\')
        item_loader.add_css(\'praise_num\',\'#112547votetotal::text\')
        #针对xpath的情况
        item_loader.add_xpath(\'content\',\'//*[@id="post-112239"]/div[3]/div[3]/p[1]\')
        #把结果返回给item对象
        article_item = item_loader.load_item()

debug调试,可以看到拿到的信息

 

不过实际情况,可能1、我们只取返回结果的某个元素。2、拿到返回结果后还需要执行某些函数。 这个scrapy也提供了方法:

在items.py文件里操作,这里用到了MapCompose类

from scrapy.loader.processors import MapCompose

 这个类我们可以传递任意多的函数进来处理

导入模块后,

 在Field的入参里可以传入这个函数,方式如下,其中MapCompose里填的是函数名,而调用的这个alter_title函数的入参,就是title的拿到的值,即input_processor参数的效果是在传值给item前进行预处理

def alter_title(value):
    return value + "-白菜被猪拱了"

class JoBoleArticleItem(scrapy.Item):
    #标题
    title = scrapy.Field(
        input_processor = MapCompose(alter_title)
    )

 debug调试下,

 在loader机制中也有类似extract_firest的方法:TakeFirst

from scrapy.loader.processors import MapCompose,TakeFirst

然后在下面的:

经测试 input_processor和output_processor同时存在时,会把input进行预处理拿到的返回值继续给output处理,返回最终结果给item

import datetime
def date_convert(value):
    try :
        create_date = datetime.datetime.strftime(value,"%Y/%m/%d").date()
    except Exception as e:
        create_date = datetime.datetime.now().date()

    return create_date



class JoBoleArticleItem(scrapy.Item):
    #标题
    title = scrapy.Field(
        input_processor = MapCompose(alter_title)
    )
    #创建日期
    create_date  = scrapy.Field(
        # = MapCompose(date_convert),
        input_processor = MapCompose(date_convert),
        output_processor = TakeFirst()
    )

如果要每个字段都要单独调用这个TakeFirst方法,会有些麻烦,可以通过自定义ItemLoader,首先导入ItemLoader进行重载

from scrapy.loader import ItemLoader

 点开ItemLoader源码,可以查看到有个default_output_processor

 然后我们给ItemLoader重载这个default_output_processor

class ArticleItemLoader(ItemLoader):
    #自定义ItemLoader
    default_output_processor = TakeFirst()

 

然后在创建itemloader对象时使用自定义的loader:ArticleItemLoader

        item_loader = ArticleItemLoader(item=JoBoleArticleItem(),response=response)
        #针对直接取值的情况
        item_loader.add_value(\'front_image_url\',\'front_image_url\')
        item_loader.add_value(\'front_image_path\',\'\')
        item_loader.add_value(\'url\',response.url)
        item_loader.add_value(\'url_object_id\',get_md5(response.url))
        item_loader.add_value(\'content\',\'\')

debug调试,可以看到获取到的value由list变成str 

 

PS:这里只是把默认的output_processor制定了一个方法,所以如果存在某些item 不想调用默认的output_processor,可以继续在add_value方法里单独传output方法。

 

 

 

 

 

 

问题:

1、调试时遇到下面这错误,一般是由于传递给items.py的数据里缺少了字段、传递的字段和数据表里的字段的类型不符等

2

 

3、使用itemloader爬取时,返回的数据类型是list,再存入item容器前,是支持对数据进行预处理的,即输入处理器和输出处理器,可以通过MapCompose这个类来依次对list的元素进行处理,

但如果lsit为【】则不会进行处理,这种情况需要重载MapCompose类的__call__方法,如下,我给vallue增加一个空的str“”

class MapComposeCustom(MapCompose):
    #自定义MapCompose,当value没元素是传入""
    def __call__(self, value, loader_context=None):
        if not value:
            value.append("")
        values = arg_to_iter(value)
        if loader_context:
            context = MergeDict(loader_context, self.default_loader_context)
        else:
            context = self.default_loader_context
        wrapped_funcs = [wrap_loader_context(f, context) for f in self.functions]
        for func in wrapped_funcs:
            next_values = []
            for v in values:
                next_values += arg_to_iter(func(v))
            values = next_values
        return values

 

以上是关于第十篇 scrapy item loader机制的主要内容,如果未能解决你的问题,请参考以下文章

Scrapy的Item_loader机制详解

爬虫Scrapy Item Loaders使用方法

第十篇|SparkStreaming手动维护Kafka Offset的几种方式

我的第三十篇博客---scrapy框架

开始写游戏 --- 第十篇

第十篇 GoogLeNet——模型精讲