使用scrapy第一次成功爬出信息,目标是流放之路论坛

Posted passagain

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用scrapy第一次成功爬出信息,目标是流放之路论坛相关的知识,希望对你有一定的参考价值。

由于喜欢玩POE流放之路,所以用这个论坛试试自己的新技能

程序语句都做了注释说明,下面是步骤

1.建立项目

scrapy startproject poebbs

2.建立爬虫

cd poebbs
scrapy genspider poebd

3.编辑items.py

title = scrapy.Field()
bbslink = scrapy.Field()

4.编辑poebd.py

import scrapy
from poebbs.items import PoebbsItem #一定要记得导入item

class PoebdSpider(scrapy.Spider):
    name = ‘poebd‘
    allowed_domains = [‘http://bbs.17173.com‘]
    start_urls = [‘http://bbs.17173.com/forum-9987-1.html‘, #选择了3页内容来爬
                  ‘http://bbs.17173.com/forum-9987-2.html‘,
                  ‘http://bbs.17173.com/forum-9987-3.html‘
                  ]

    def parse(self, response):
        sites = response.css(‘.new‘)  #需要的内容在class=’new‘内,所以就取了这个范围
        for site in sites:
            item = PoebbsItem()
            item[‘title‘] = site.css(‘.new .xst::text‘).extract_first()  #这里是两个class,没有标签标识
            item[‘bbslink‘] = site.css(‘.new a::attr(href)‘).extract()[2] #这个网址在同一个class下,低3个a标签内,所以用这个语法
            yield item

5.编辑settings.py

FEED_EXPORT_ENCODING =‘utf-8‘    #加入这两句防止保存中文文件时乱码
FEED_EXPORT_ENCODING = ‘gb18030‘

6.运行爬虫

scrapy crawl poebd -o note.csv     #保存为表格文件

结果

技术图片

2019-05-03

以上是关于使用scrapy第一次成功爬出信息,目标是流放之路论坛的主要内容,如果未能解决你的问题,请参考以下文章

敏捷之路 C++ (一) jenkins配置-VS工程自动编译基本配置

Netty之路(二)TCP拆包/粘包问题

Scrapy爬虫爬取B站视频标题及链接

一次scrapy成功停止的信息

爬虫之路永无止境爬了那么多次,爬出了血泪经验,教你怎么在IP被封时也能继续爬

爬虫实战2:爬出头条网美图