Scrapy分页不起作用
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy分页不起作用相关的知识,希望对你有一定的参考价值。
我正在努力学习Scrapy。
# -*- coding: utf-8 -*-
import scrapy
class QuotesSpider(scrapy.Spider):
name = 'quotes'
allowed_domains = ['quotes.toscrape.com/']
start_urls = ['http://quotes.toscrape.com/']
def parse(self, response):
quotes = response.xpath('//*[@class="quote"]')
for quote in quotes:
text = quote.xpath(".//*[@class='text']/text()").extract_first()
author = quote.xpath("//*[@itemprop='author']/text()").extract_first()
tags = quote.xpath(".//*[@class='tag']/text()").extract();
item = {
'author_name':author,
'text':text,
'tags':tags
}
yield item
next_page_url = response.xpath("//*[@class='next']/a/@href").extract_first()
absolute_next_page_url = response.urljoin(next_page_url)
yield scrapy.Request(url=absolute_next_page_url,callback=self.parse)
但scrapy只解析第一页。这段代码有什么问题。我从youtube教程复制了它。
请帮忙。
答案
只是除了第一个请求之外的所有请求都被过滤为“异地”。这是因为你在/
值的末尾有这个额外的allowed_domains
:
allowed_domains = ['quotes.toscrape.com/']
# REMOVE THIS SLASH^
以上是关于Scrapy分页不起作用的主要内容,如果未能解决你的问题,请参考以下文章