基础的爬虫框架及运行流程

Posted zcfx

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基础的爬虫框架及运行流程相关的知识,希望对你有一定的参考价值。

 

 

 

 

 

 

 

 

 

爬虫框架的基础和运行流程

 

 

技术分享图片

基本的框架流程

基础爬虫框架主要包括五大模块、分别为爬虫调度器、URL管理器、html下载器、HTML解析器、数据存储器。功能分析如下:

爬虫调度器主要负责统筹其他四个模块的协调工作。

URL管理器负责URL链接的管理,维护已经爬取的URL集合和未爬取的URL集合,提供获取新URL链接的接口。

HTML下载器用于从URL管理器中获取未爬取的URL链接并下载HTML网页。

HTML解析器用于从HTML下载器中获取已经下载的HTML页面,并从中解析出新的URL链接交给URL管理器,解析出有效数据交给数据存储器。

数据存储器用于将HTML解析器解析出来的数据通过文件或者数据库的形式存储起来。

技术分享图片

运行流程

1.1URL管理器

  URL管理器主要包括两个变量,一个是已爬取URL的集合,另一个是未爬取URL的集合。采用Python中的set类型,主要是使用set的去重复功能,防止链接重复爬取,因为爬取连接重复时容易造成死循环。链接去重复在Python爬虫开发中是必备的功能,解决方案主要有三种:

1.内存去重

2.关系数据库去重

3.缓存数据库去重

大型的成熟的爬虫基本上采用缓存数据库的去重方案,尽可能避免内存大小的限制,又比关系型数据库去重性能高很多。由于基础爬虫的爬取数量较小,因此我们可以使用Python中set这个内存去重方式。

  URL管理器除了具有两个URL集合,还需要提供一下接口,用于配合其他模块使用,接口如下:

  判断是否有待取的URL,方法定义为has_new_url()。

  添加新的URL到未爬取集合中,方法定义为add_new_url(url),add_new_urls(urls)。

  获取一个未爬取的URL,方法定义为get_new_url()。

  获取未爬取URL集合的大小,方法定义为new_url_size()。

  获取已经爬取的URL集合的大小,方法定义为old_url_size()

技术分享图片

技术分享图片

 

1.2 HTML下载器

HTML下载器用来下载网页,这时候需要注意网页的编码,以保证下载的网页没有乱码。

下载器需要用到Requests模块,里面只需要实现一个接口即可:download(url)。

技术分享图片

 

技术分享图片

 

 

 

 

 

1.3 HTML解析器

这里使用的是BeautifulSoup4进行HTML解析。需要解析的部分主要分为提取相关词条页面的URL和提取当前词条的标题和摘要信息。

技术分享图片

 

 

技术分享图片

技术分享图片

1.4 数据存储器

 

 

1.5 爬虫调度器

 

以上是关于基础的爬虫框架及运行流程的主要内容,如果未能解决你的问题,请参考以下文章

python基础爬虫的框架和运行流程

最高效的python爬虫框架有几个

Python爬虫基础--Scrapy框架的安装及介绍

Python爬虫 ---scrapy框架初探及实战

python爬虫详细解析附案例

爬虫之scrapy框架