如何在 Scrapy 中创建基于 href 的 LinkExtractor 规则

Posted

技术标签:

【中文标题】如何在 Scrapy 中创建基于 href 的 LinkExtractor 规则【英文标题】:How to create LinkExtractor rule which based on href in Scrapy 【发布时间】:2015-02-04 12:22:18 【问题描述】:

我正在尝试使用 Scrapy (scrapy.org) 创建简单的爬虫。例如item.php 是允许的。我如何编写允许始终以http://example.com/category/ 开头但在GET 参数page 中的url 的规则应该与其他参数的任意位数一起存在。这些参数的顺序是随机的。 请帮助我如何编写这样的规则?

少数有效值是:

http://example.com/category/?page=1&sort=a-z&cache=1 http://example.com/category/?page=1&sort=a-z# http://example.com/category/?sort=a-z&page=1

以下是代码:

import scrapy
from scrapy.contrib.spiders import CrawlSpider, Rule
from scrapy.contrib.linkextractors import LinkExtractor
class MySpider(CrawlSpider):
name = 'example.com'
allowed_domains = ['example.com']
start_urls = ['http://www.example.com/category/']

rules = (
    Rule(LinkExtractor(allow=('item\.php', )), callback='parse_item'),
)

def parse_item(self, response):
    item = scrapy.Item()
    item['id'] = response.xpath('//td[@id="item_id"]/text()').re(r'ID: (\d+)')
    item['name'] = response.xpath('//td[@id="item_name"]/text()').extract()
    item['description'] = response.xpath('//td[@id="item_description"]/text()').extract()
    return item

【问题讨论】:

【参考方案1】:

测试字符串开头的http://example.com/category/ 和值中包含一位或多位数字的page 参数:

Rule(LinkExtractor(allow=('^http://example.com/category/\?.*?(?=page=\d+)', )), callback='parse_item'),

演示(使用您的示例网址):

>>> import re
>>> pattern = re.compile(r'^http://example.com/category/\?.*?(?=page=\d+)')
>>> should_match = [
...     'http://example.com/category/?sort=a-z&page=1',
...     'http://example.com/category/?page=1&sort=a-z&cache=1',
...     'http://example.com/category/?page=1&sort=a-z#'
... ]
>>> for url in should_match:
...     print "Matches" if pattern.search(url) else "Doesn't match"
... 
Matches
Matches
Matches

【讨论】:

【参考方案2】:

这样试试

import re
p = re.compile(ur'<[^>]+href="((http:\/\/example.com\/category\/)([^"]+))"', re.MULTILINE)
test_str = u"<a class=\"youarehere\" href=\"http://example.com/category/?sort=newest\">newest</a>\n \n<a href=\"http://example.com/category/?sot=frequent\">frequent</a>"

re.findall(p, test_str)

live demo

【讨论】:

以上是关于如何在 Scrapy 中创建基于 href 的 LinkExtractor 规则的主要内容,如果未能解决你的问题,请参考以下文章

scrapy-redis详解

在R中创建具有匹配颜色和线形的图例

如何在 Firebase 中创建基于角色的访问控制或自定义声明

如何在 .net 中创建 13 个月的基于月球的日历

如何基于 Azure 数据工厂中创建的 Blob 执行触发器?

如何在基于 sysdig 指标标签的 grafana 仪表板中创建下拉菜单