初识Scrapy

Posted pywjh

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了初识Scrapy相关的知识,希望对你有一定的参考价值。

Scrapy——1

 

目录

  1. 什么是Scrapy框架?
  2. Scrapy的安装
  3. Scrapy的运行流程
  4. Scrapy的使用
  5. 实战:伯乐在线案例(json文件保存)

 

 

 


 

什么是Scrapy框架?

  • Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。多用于抓取大量静态页面。
  • 框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容以及各种图片,非常方便。
  • Scrapy使用了Twisted[‘twistid](其主要对手是Toronto)异步网络框架来处理网络通讯,可以加快我们的下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活的完成各种需求。

 

Scrapy的安装

  • Windows安装
pip install Scrapy

 Windows使用Scrapy需要很多的依赖环境,根据个人的电脑的情况而定,在cmd的安装下,缺少的环境会报错提示,在此网站下搜索下载,通过wheel方法安装即可。如果不懂wheel法安装的,可以参考我之前的随笔,方法雷同

  • 虚拟机Ubuntu的安装

    通过如下代码安装依赖环境,最后也是通过pip install Scrapy进行安装

sudo apt-get install python-dev python-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev

 


 

 Scrapy的运行流程

技术分享图片

 

  •  Scrapy Engine(引擎):负责Spider、ItemPipeline、Downloader、Schedule中间件,信号,数据传递等
  • Schedule(调度器):它负责接收引擎发送过来的Requests请求,并按照一定的方式进行排序,入队,当引擎需要时,交还给引擎
  • Downloader(下载器):负责下载负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理
  • Spider(爬虫):他负责处理所有的Response,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Schedule来处理
  • ItemPipeline(管道):它负责处理Spider中获取到的Item,并进行后期的处理(详细分析、过滤、存储等)的地方
  • Downloader Middlewares(下载器中间件):可以当作是一个可以自定义下载功能的组件
  • Spider Middlewares(Spider中间件):可以理解为是一个可以自定义扩展和操作引擎和Spider中间件通信的功能组件(比如进入Spider的Response;和从Spider出去的Requests)

技术分享图片


 

 

Scrapy的使用

  • 在虚拟机中用命令行输入
scrapy startproject project_name
  • 根据提示,cd到创建的项目中,再创建根爬虫(spider_name是爬虫程序的文件名,spider_url是所要爬取的网站域名)
scrapy genspider spider_name spider_url(scrapy genspider spider tanzhouedu.com)

会相应生成如下文件

技术分享图片

  • scrapy.cfg:项目的配置文件
  • mySpider/: 项目的Python模块,将会从这里引入代码
  • mySpider/items.py :项目的目标文件
  • mySpider/pipelines.py :项目的管道文件
  • mySpider/settings.py :项目的设置文件
  • mySpider/spiders/ :存储爬虫代码目录

Scrapy知识点介绍

  • 制作爬虫(spiders/xxspider.py)

技术分享图片

  • 存储内容(pipelines.py):设计管道存储数据

技术分享图片

  • mySpider/settings.py里面的注册管道

技术分享图片

  • 程序的运行:在虚拟机中相应文件夹下,输入scrapy list ,他会显示可以运行的scrapy程序,然后输入scrapy crawl scrapy_name开始运行

 


 

 实战:伯乐在线案例(json文件保存)

创建项目

技术分享图片

  • bolezaixainolezaixainitems.py 设置需要的数据
    # -*- coding: utf-8 -*-
    
    # Define here the models for your scraped items
    #
    # See documentation in:
    # https://doc.scrapy.org/en/latest/topics/items.html
    
    import scrapy
    
    
    class BolezaixainItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        title = scrapy.Field()
        url = scrapy.Field()
        time = scrapy.Field()

     

  • bolezaixainolezaixainsettings.py   激活管道
  • 技术分享图片

 

  • bolezaixainolezaixainspiderslog_jobbole.py  编写爬虫代码
    # -*- coding: utf-8 -*-
    import scrapy
    from ..items import BolezaixainItem #导入本文件夹外的items文件
    
    
    class BlogJobboleSpider(scrapy.Spider):
        name = blog.jobbole
        allowed_domains = [blog.jobbole.com/all-posts/]
        start_urls = [http://blog.jobbole.com/all-posts/]
    
        def parse(self, response):
            title = response.xpath(//div[@class="post-meta"]/p/a[1]/@title).extract()
            url = response.xpath(//div[@class="post-meta"]/p/a[1]/@href).extract()
            times = response.xpath(//div[@class="post floated-thumb"]/div[@class="post-meta"]/p[1]/text()).extract()
            time = [time.strip().replace(
    , ‘‘).replace(·, ‘‘) for time in times if / in time]
    
            for title, url, time in zip(title, url, time):
                blzx_items = BolezaixainItem() # 实例化管道
                blzx_items[title] = title
                blzx_items[url] = url
                blzx_items[time] = time
                yield blzx_items
            # 翻页
            next = response.xpath(//a[@class="next page-numbers"]/@href).extract_first()
            # next = http://blog.jobbole.com/all-posts/page/2/
            yield scrapy.Request(url=next, callback=self.parse) # 回调

     

  • bolezaixainolezaixainpipelines.py  保存数据
    # -*- coding: utf-8 -*-
    
    # Define your item pipelines here
    #
    # Don‘t forget to add your pipeline to the ITEM_PIPELINES setting
    # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
    
    import pymysql
    import json
    
    
    class BolezaixainPipeline(object):
        def __init__(self):
            pass
            print(======================)
            self.f = open(blzx.json, w, encoding=utf-8)
    
        def open_spider(self, spider):
            pass
    
        def process_item(self, item, spider):
            s = json.dumps(dict(item), ensure_ascii=False) + 
    
            self.f.write(s)
            return item
    
        def close_spider(self, spider):
            pass
            self.f.close()

时间,url, 标题

技术分享图片

 

幸苦码字,转载请附链接

 



以上是关于初识Scrapy的主要内容,如果未能解决你的问题,请参考以下文章

scrapy按顺序启动多个爬虫代码片段(python3)

初识python爬虫框架Scrapy

Scrapy: 初识Scrapy

初识Scrapy

Python | 初识爬虫框架Scrapy

初识Scrapy