简述第一文《为啥选择爬虫,选择python》
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了简述第一文《为啥选择爬虫,选择python》相关的知识,希望对你有一定的参考价值。
1 为什么选择爬虫?要想论述这个问题,需要从网络爬虫是什么?学习爬虫的原因是什么?怎样学习爬虫来理清自己学习的目的,这样才能更好地去研究爬虫技术并坚持下来。
1.1 什么是爬虫:爬虫通常指的是网络爬虫,就是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。一般是根据定义的行为自动进行抓取,更智能的爬虫会自动分析目标网站结构。它还有一些不常使用的名字。如:网络蜘蛛(Web spider)、蚂蚁(ant)、自动检索工具(automatic indexer)、网络疾走(WEB scutter)、网络机器人等。
1.2 学习爬虫的原因:
1.2.1学习爬虫是一件很有趣的事。我曾利用爬虫抓过许多感兴趣东西,兴趣是最好的老师,感兴趣的东西学的快、记的牢,学后有成就感。
@学习爬虫,可以私人订制一个搜索引擎,并且可以对搜索引擎的数据采集工作原理进行更深层次地理解。有的朋友希望能够深层次地了解搜索引擎的爬虫工作原理,或者希望自己能够开发出一款私人搜索引擎,那么此时,学习爬虫是非常有必要的。简单来说,我们学会了爬虫编写之后,就可以利用爬虫自动地采集互联网中的信息,采集回来后进行相应的存储或处理,在需要检索某些信息的时候,只需在采集回来的信息中进行检索,即实现了私人的搜索引擎。当然,信息怎么爬取、怎么存储、怎么进行分词、怎么进行相关性计算等,都是需要我们进行设计的,爬虫技术主要解决信息爬取的问题。
@学习爬虫可以获取更多的数据源。这些数据源可以按我们的目的进行采集,去掉很多无关数据。在进行大数据分析或者进行数据挖掘的时候,数据源可以从某些提供数据统计的网站获得,也可以从某些文献或内部资料中获得,但是这些获得数据的方式,有时很难满足我们对数据的需求,而手动从互联网中去寻找这些数据,则耗费的精力过大。此时就可以利用爬虫技术,自动地从互联网中获取我们感兴趣的数据内容,并将这些数据内容爬取回来,作为我们的数据源,从而进行更深层次的数据分析,并获得更多有价值的信息。
@对于很多SEO从业者来说,学习爬虫,可以更深层次地理解搜索引擎爬虫的工作原理,从而可以更好地进行搜索引擎优化。既然是搜索引擎优化,那么就必须要对搜索引擎的工作原理非常清楚,同时也需要掌握搜索引擎爬虫的工作原理,这样在进行搜索引擎优化时,才能知己知彼,百战不殆。
@学习爬虫更有钱景。爬虫工程师是当前紧缺人才,并且薪资待遇普遍较高,所以,深层次地掌握这门技术,对于就业来说,是非常有利的。有些朋友学习爬虫可能为了就业或者跳槽。从这个角度来说,爬虫工程师方向也是不错的选择之一,因为目前爬虫工程师的需求越来越大,而能够胜任这方面岗位的人员较少,所以属于一个比较紧缺的职业方向,并且随着大数据时代的来临,爬虫技术的应用将越来越广泛,在未来会拥有很好的发展空间。
除了以上为大家总结的4种常见的学习爬虫的原因外,可能你还有一些其他学习爬虫的原因,总之,不管是什么原因,理清自己学习的目的,就可以更好地去研究一门知识技术,并坚持下来。
1.3 怎样学习爬虫:
1.3.1 选择一门编程语言。入门爬虫的前提肯定是需要学习一门编程语言,推荐使用Python 。2018年5月Python已排名第一,列为最受欢迎的语言。很多人将 Python 和爬虫绑在一起,相比 Java , php , Node 等静态编程语言来说,Python 内部的爬虫库更加丰富,提供了更多访问网页的 API。写一个爬虫不需要几十行,只需要 十几行就能搞定。尤其是现在反爬虫日渐严峻的情况下,如何伪装自己的爬虫尤为重要,例如 UA , Cookie , Ip 等等,Python 库对其的封装非常和谐,为此可以减少大部分代码量。
1.3.2 学习爬虫需要掌握的知识点。http相关知识,浏览器拦截、抓包;python的scrapy 、requests、BeautifulSoap等第三方库的安装、使用,编码知识、bytes 和str类型转换,抓取javascript 动态生成的内容,模拟post、get,header等,cookie处理、登录,代理访问,多线程访问、asyncio 异步,正则表达式、xpath,分布式爬虫开发等。
1.3.3 学习爬虫的基本方法。 理清楚爬虫所需的知识体系,然后各个击破;推荐先买一本有一定知名度的书便于系统的学习爬虫的知识体系。刚开始学的时候,建议从基础库开始,有一定理解之后,才用框架爬取,因为框架也是用基础搭建的,只不过集成了很多成熟的模块,提高了抓取的效率,完善了功能。多实战练习和总结实战练习,多总结对方网站的搭建技术、网站的反爬机制,该类型网站的解析方法,破解对方网站的反爬技巧等。
2 为什么选择Python?
百度知道在这方面介绍的很多了,相比其它编程语言,我就简答一下理由:
2.1 python是脚本语言。因为脚本语言与编译语言的开发测试过程不同,可以极大的提高编程效率。作为程序员至少应该掌握一本通用脚本语言,而python是当前最流行的通用脚本语言。与python相似的有ruby、tcl、perl等少数几种,而python被称为脚本语言之王。
2.2 python拥有广泛的社区。可以说,只要你想到的问题,只要你需要使用的第三方库,基本上都是python的接口。
2.3 python开发效率高。同样的任务,大约是java的10倍,c++的10-20倍。
2.4 python在科研上有大量的应用。大数据计算、模拟计算、科学计算都有很多的包。python几乎在每个linux操作系统上都安装有,大部分unix系统也都缺省安装,使用方便。
2.5 python有丰富和强大的独立库。它几乎不依赖第三方软件就可以完成大部分的系统运维和常见的任务开发;python帮助里还有许多例子代码,几乎拿过来略改一下就可以正式使用。
参考技术A 强大的库,简洁的代码,一个爬虫项目也就几十到一百多行代码就搞定了。其他编程语言哪个能做到 参考技术B 简要说一下自己的思路1,有两个代理可用(618IP代理,618爬虫代理服务器),所以爬的时候随机选取一个
2,复制安装下载后,随机选一个
3,爬一次随机睡眠3~6s 这样IP池有百万,可以无限一直爬
python爬虫-什么时候选择selenium框架框架?
不知不觉已经从事Python编程开发5年了,Python刚开始其实不是很起眼,但是随着大数据越来越活,现在Python也越来越火了,但是目前我主要从事的Python工作还是以数据挖掘、数据爬虫技术深度为主。下面把这些年个人在编程爬虫代码时用过的一些爬虫框架和爬虫经验给大家分享:
不同的网站选择不通的技术策略和不同的框架组合。
? ? (1)selenium框架: 我把这个框架取了一个名字叫:“无法阻挡爬虫蜘蛛侠”,这个框架优点的个人觉得就是可以模拟浏览器,相当于您用程序调动浏览器让浏览器打开您需要爬取的网站。这个好处其实就是可以大量避免被封。因为我们在用Python的requets库发出网络情况时候,您必须先构造http请求头。但是有些网站反爬很严格,可以直接识别出来您当前的访问是否正常用户行为。所以如果在用request请求时被目标网站反爬识别,导致无法爬取的话,那么这个时候只有使用这个selenium框架就是最好技术选择方式。他可以做到的是只要您网站用浏览器可以正常访问,那么selenium就可以采集到网站数据,除非正常浏览器都不能访问了。
? ? ? ?selenium框架优点:反爬能力强,适合爬取哪种反爬很厉害的网站或者是那种需要点击提交的网站,我在做商标网数据爬取的时候,当时老板要求要爬取全部网站几千万商标数据,但是这个网站反爬很厉害,而且需要点击确定按钮,然后才能进入商标综合搜索页面,然后再根据注册号搜索进入列表页,然后从列表页点击进入商标详情页,然后再从详情页点击进入商标流程页。这一连串的需要的模拟动作,当时为了解决一天爬取上百万数据,刚开始我采用Python的request库+代理IP池技术架构,然后开启了多进程,但是遗憾是很快就被目标网站识别您的请求不是正常用户,因为您太快了,所以最后不得不改用selenium+多进程技术价格组合。
? ??? ? selenium框架缺点:速度慢,适合每天爬取数据量要求不高的爬虫工作, 因为selenium框架是必须要打开浏览器,然后模拟点击网页,这个过程和您用手打开浏览器打开网址去访问网站一样的速度。这个速度是比较慢。如果您要采集的数据,每天也就1-2万条那么可以用这个selenium框架。因为比较稳定靠谱。
什么时候我们不能选择selenium框架?
? ? ?关于爬虫技术,下一篇继续给大家分享。欢迎对大数据和爬虫技术感兴趣朋友多交流
以上是关于简述第一文《为啥选择爬虫,选择python》的主要内容,如果未能解决你的问题,请参考以下文章
Python爬虫编程思想(68): 在pyquery中使用伪类选择器