Scrapy框架CrawlSpider类爬虫实例

Posted zhiliang9408

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy框架CrawlSpider类爬虫实例相关的知识,希望对你有一定的参考价值。

CrawlSpider类爬虫中:

rules用于定义提取URl地址规则,元祖数据有顺序

    #LinkExtractor 连接提取器,提取url地址

  #callback 提取出来的url地址的response会交给callback处理

 #follow 当前url地址的响应是否重新经过rules进行提取url地址

cf.py具体实现代码如下(简化版):

 1 # -*- coding: utf-8 -*-
 2 import scrapy
 3 from scrapy.linkextractors import LinkExtractor
 4 from scrapy.spiders import CrawlSpider, Rule
 5 import re
 6 
 7 class CfSpider(CrawlSpider):
 8     name = cf
 9     allowed_domains = [bxjg.circ.gov.cn]
10     start_urls = [http://bxjg.circ.gov.cn/web/site0/tab5240/Default.htm]
11 
12     rules = (
13         Rule(LinkExtractor(allow=r/web/site0/tab5240/infod+.htm), callback=parse_item, ),
14         Rule(LinkExtractor(allow=r/web/site0/tab5240/module14430/paged+.htm),follow=True, ),
15     )
16 
17     def parse_item(self, response):
18         item = {}
19         item[title] = re.findall("<!--TitleStart-->(.*?)<!--TitleEnd-->", response.body.decode())[0]
20         item[publish_date] = re.findall("发布时间:(20d{2}-d{2}-d{2})", response.body.decode())[0]
21         print(item)

 

以上是关于Scrapy框架CrawlSpider类爬虫实例的主要内容,如果未能解决你的问题,请参考以下文章

python爬虫入门Scrapy框架之CrawlSpider类

爬虫学习 16.Python网络爬虫之Scrapy框架(CrawlSpider)

scrapy爬虫框架-CrawlSpider

Python网络爬虫之Scrapy框架(CrawlSpider)

Scrapy框架--CrawlSpider

Scrapy框架——CrawlSpider爬取某热线网站