Scrapy使用

Posted pythonlxf

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scrapy使用相关的知识,希望对你有一定的参考价值。

简介
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中,Scrapy用途广泛可以用于数据挖掘检测和自动化测试,Scrapy使用Twisted异步网络库来处理网络通信。


流程图


调度器把request对象交给引擎,引擎负责把request对象交给(中间有个下载中间件)下载器,下载器发生请求,获取response,下载把response交给引擎,下载器在把response交给(中间有一个爬虫中间)爬虫,爬虫提取数据,然后在将提取到的response,交给引擎,引擎将response交给pipeline。

技术图片
Scrapy主要组件

技术图片

Scrapy基本命令

scrapy startproject 项目名称 #在当前目录中创建一个项目文件
cd 项目名称 #进入到项目文件
scrapy genspider 爬虫名称 爬虫链接 #创建爬虫应用
scrapy
scrapy list #展示爬虫列表
scrapy crawl 爬虫名 #运行爬虫
scrapy --nolog #不显示日志信息可以跟运行爬虫的时候配合使用
scrapy genspider -t crawl 爬虫名称 爬虫链接 #创建c‘rawl爬虫
scrapy --help #可以获得爬虫帮助文档

Debug信息

技术图片

 

文件介绍

技术图片

文件说明
Spider:
自定义spdider类,继承scrapy.spider,这个主要是用来接收引擎发过来的response我进行数据提取。parse()里面可以写一些信息提取规则,详细见图。
技术图片
Iter:
iter用来做数据格式化的,类型为字典,详情请看图。
技术图片

setting:
setting设置爬虫的请求头,cookie,数据库信息等内容。
技术图片

Pipeline:
pipeline主要进行的是数据的持久化,比如:一些数据要保存到数据库,文件或者别的地方都可以在pipeline下面来进行设置保存。
PS:
1.其中它的process_item()方法名是不能更改为别的名称。
2.如果要使用pipeline需要到setting配置文件中设置,代码如下:
3.pipeline中权重越小优先级越高
4.pipeline可以设置多个class来进行数据的保存

pipeline setting设置
ITEM_PIPELINE=‘myspider.MyspiderPipeline‘:100 #pipeline的位置:权重

技术图片
yiled object 与 yiled Request
yiled object:
yiled对象必须返回 Request,Baseitem,dict,None

yiled Request:
能构建一个request,同时指定提取数据的callback函数,meta
ps:
参数:meta:传递信息给下一个函数
日志的设置
技术图片
Crawl spider
技术图片
技术图片
技术图片
Crawl spider 总结
技术图片)

技术图片

 

 

以上是关于Scrapy使用的主要内容,如果未能解决你的问题,请参考以下文章

Scrapy爬虫:scrapy架构及原理

Python 爬虫-Scrapy框架基本使用

python爬虫--scrapy框架的学习和使用⭐⭐⭐---第一部分

Scrapy的日志信息与配置

Python | 初识爬虫框架Scrapy

Scrapy使用问题整理(转载)