Python 爬虫 1爬虫基础概念
Posted SAP剑客
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python 爬虫 1爬虫基础概念相关的知识,希望对你有一定的参考价值。
爬虫基础概念
网络爬虫的定义
网络爬虫(Crawler)又被成为网络蜘蛛(Spider),网络机器人,网页追逐者,它是一种按照一定规则,自动的抓取万维网信息的程序或者脚本。
【狭义与广义定义】
狭义上指遵循标准的http协议,利用超链接和Web文档检索方法遍历万维网的软件程序。
广义的定义则是能遵循http协议,检索web文档的软件都称之为网络爬虫。
网络爬虫的用途
- 主要用途:数据采集。
- 金融:金融新闻/数据,制定投资策略,进行量化交易;
- 旅游:各类信息,优化出行策略;
- 电商:商品信息,比价系统;
- 游戏:游戏论坛,调整游戏运营;
- 银行:个人交易信息,征信系统/贷款评级;
- 招聘:职位信息,岗位信息;
- 舆情:各大论坛,社会群体感知,舆论导向;
- 其他用途:12306抢票、各种抢购、投票、刷票、短信轰炸、网络攻击、Web漏洞扫描器等。
网络爬虫是否合法?
从目前的实现来看,如果抓取数据的行为用于个人使用,则不存在问题;而如果数据用于转载或者商业用途,那么抓取的数据类型就非常关键。
从很多历史案件来看,当抓取的数据是现实生活中的真实数据(比如,营业地址、电话清单等)时,是允许转载的。但是,如果是原创数据(比如,意见和评论),通常则会受到版权的限制。
无论如何,当你抓取某个网站的数据时,请记住自己是该网站的访客,应当约束自己的抓取行为,否则他们可能会封禁你的IP,甚至采取更进一步的法律行动。这就要求下载请求的速度限定在一个合理值之内,并且还需要设定一个专属的用户代理来标识自己。
反爬虫
初学者写的爬虫:简单粗暴,不管对终端服务器的压力,甚至会把网站爬挂掉了,服务器对其进行封禁;
数据保护:很多的数据对某些公司网站来说是比较重要的,不希望被别人爬取(比如,天眼查);
商业竞争问题:比如京东和天猫,假如京东内部通过程序爬取天猫所有的商品信息,从而做对应策略,这样对天猫来说就造成了非常大的竞争。
网络爬虫的分类
根据使用场景,网络爬虫可分为通用爬虫和聚焦爬虫两种。
通用爬虫:搜索引擎和Web服务商用的爬虫系统。通用网络爬虫是搜索引起抓取系统(Baidu、Google、Yahoo等)的重要组成部分,主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。
聚焦爬虫:是“面向特定主题需求”的一种网络爬虫程序,它与通用搜索引擎爬虫的区别在于,聚焦爬虫在实施网页抓取时会对内容进行处理筛选,尽量保证只抓取与需求相关的网页信息。
【通用搜索引擎工作原理】
尽可能的把互联网上的所有网页下载下来,放到本地服务器里形成备份,再对这些网页做相关处理(提取关键字、去掉广告),最后提供一个用户检索接口;
通用网络爬虫从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因为其性能的优劣直接影响着搜索引起的效果。
第一步:抓取网页(递归)
首先选取一部分种子URL,把这些URL放到待爬取队列;
从队列取出URL,然后解析DNS得到主机IP,然后保存这个IP对应服务器的html页面到搜索引擎的本级服务器,之后把这个爬过的URL放入已经爬过的队列;
分析网页内容,找出网页里其他的URL链接,继续执行上面一步,直到爬取结束。
第二步:数据存储
搜索引擎通过爬虫爬取到的网页,将数据存入原始页面数据库,其中的页面数据与用户浏览器得到的HTML是完全一样的;
搜索引擎蜘蛛在抓取页面的时候,也做一定的重复内容检测,一旦遇到访问权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行。
第三步:数据预处理,搜索引擎将爬虫爬取回来的页面,进行各种步骤的预处理
- 提取文字
- 中文分词
- 消除噪音(比如版权声明文字、导航条、广告等)
- 索引处理
- 链接关系计算
- 特殊文件处理
第四步:提供检索服务,网站排名
搜索引擎对信息进行组织和处理后,为用户提供关键字检索服务,将用户检索相关的信息展示给用户;
同时会根据页面的PageRank值(链接的访问量排名)来进行网站排名,这样Rank值高的网站在搜索结果中会排名较前,当然也可以直接使用Money购买搜索引擎网站排名,简单粗暴。
通用搜索引起的局限性
通用搜索引起所返回的结果都是网页,而大多情况下,网页里面90%的内容对用户来说都是无用的;
不同领域、不同背景的用户往往具有不同的检索目的和需求,搜索引起无法提供针对具体某个用户的搜索结果;
万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通过搜索引擎对这些文件无能为力,不能很好地发现和获取;
通用搜索引擎大多提供基于关键字地检索,难以支持根据语义信息提出地查询,无法准确理解用户地具体需求。
解决通用爬虫的缺点,聚焦爬虫出现了。
聚焦爬虫,爬虫程序员写的针对某种特定内容的爬虫;
面向主题爬虫、面向需求爬虫:会针对某种特定的内容取爬取信息,而且保证内容需求尽可能相关。
聚焦爬虫流程:
聚焦爬虫根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它根据一定的搜索策略从队列中选择下一步要抓取的网页的URL,并重复上述过程,直到达到系统的某一条件时停止。
URL搜索策略
- 基于IP地址搜索策略
- 广度优先
- 深度优先
- 最佳优先
基于IP地址搜索策略
先赋予爬虫一个起始的IP地址,然后根据IP地址递增的方式搜索本端口地址段后的每一个WWW地址中的文档,它完全不考虑各个文档中指向其他Web站点的超级链接地址。
优点是搜索全面,能够发现那些没被其他文档引用的新文档的信息源。
缺点是不适合大规模搜索。
广度优先搜索策略
广度优先搜索策略是指在抓取过程中,在完成当前层次的搜索后,才进行下一层次的搜索。这样逐层搜索,依此类推。
该算法的设计和实现相对简单,为覆盖尽可能多的网页,一般使用广度优先搜索方法。
深度优先搜索策略
深度优先搜索策略在开发网络爬虫早期使用较多的方法之一,目的是要达到叶结点,即那些不包含任何超链接的页面文件。
从起始页开始在当前HTML文件中,当一个超链接被选择后,被链接的HTML文件将执行深度优先搜索,一个一个链接跟踪下去,处理完这条路线之后再转入下一个起始页,继续跟踪链接,即在搜索其余的超链接结果之前必须先完整地搜索单独的一条链。当不再有其他超链可选择时,说明搜索已经结束。
最佳优先搜索策略
最佳优先搜索策略按照一定的网页分析算法,先计算出URL描述文本的目标网页的相似度,设定一个值,并选取评价得分超过该值的一个或者几个URL进行抓取。它只访问经过网页分析算法计算出的相关度大于给定的值的网页。
存在的一个问题是,在爬虫抓取路径上的很多相关网页可能被忽略,因为最佳优先策略是一种局部最佳搜索算法。因此需要将最佳先结合具体的应用进行改进,以跳出局部最优点。
有研究表明,这样的闭环调整可以将无关的网页数量降低30%~90%。
以上是关于Python 爬虫 1爬虫基础概念的主要内容,如果未能解决你的问题,请参考以下文章