爬虫基本知识(转载)

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫基本知识(转载)相关的知识,希望对你有一定的参考价值。

转载自:http://blog.csdn.net/hk2291976/article/details/51154974

爬虫基本知识


本文目录

 

 

写在开头

这阵子需要用爬虫做点事情,于是系统的学习了一下python爬虫,觉得还挺有意思的,比我想象中的能干更多的事情,这里记录下学习的经历。

网上有关爬虫的资料特别多,写的都挺复杂的,我这里不打算讲什么大道理,因为其实爬虫挺好理解的。就是下面一个流程:

网页网页源代码正则表达式需要的内容

爬虫的功能就是把网页源代码想办法爬下来,然后分析出需要的内容。总结起来就是2个部分: 
1. 爬 
2. 提取

所以,整个爬虫需要掌握的技能,就是如何高效的爬,如何快速的分析提取所需要的内容。

如何爬?

Requests

说实话,之前为了找爬虫的教程,走了挺多弯路的,因为现在很多教程刚上来就介绍urllib,urllib2这两个python自带的有关网页的包,所以刚开始我的单线程爬虫实现也都是基于urllib的,不仅代码多,而且效率还低。实际上,目前来说,这两个已经很过时了,目前用的比较多的是requests这个第三方包(这里我也是偶然间发现极客学院有关爬虫的视频,让我少走那么多弯路,这里我就不说是什么视频了,以免有广告的嫌疑,大家有兴趣的可以自己去搜)。 
正如requests的官方网页说的:

Requests: HTTP for Humans

它目前应该是python下最好的Http库了。它还有很多别的特性:

Requests 使用的是 urllib3,继承了urllib2的所有特性。Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码。

上面介绍的是单线程爬虫,然后,如果要提高爬的效率,并行化肯定必不可少,那么scrapy就可以解决你的问题。然后还有js动态加载的问题。那些我以后也会慢慢加上来。

Requests安装

pip install requests

所有的python第三方包的安装都可以用pip,如果cmd中无法输入pip命令,请把C:\Python27\Scripts加入PATH环境变量。

注:这里不推荐使用easy_install 因为这个只管安装,不管卸载。

Requests使用

基本知道一个requests.get()和requests.post()就行了。

同样它还有 
requests.head() 
requests.delete() 
功能,不过用的不多。需要的时候,查手册就好了。 
这里有个文档写requests写的挺全面的。可以看看:requests快速上手

requests的返回值可以有多种形式输出,最常用的是 
“.text”和”.content”,前者输出unicode,后者输出二进制

 import requests  
 url = ‘http://www.baidu.com‘
 html = requests.get(url)
 print html.text

 

输出:

<!DOCTYPE html><!--STATUS OK--><html><head><meta http-equiv="content-type" content="text/html;charset=utf-8"><meta http-equiv="X-UA-Compatible" content="IE=Edge"><meta content="always" name="referrer"><meta name="theme-color" content="#2932e1"><link rel="shortcut icon" href="/favicon.ico" type="image/x-icon" /><link rel="search" type="application/opensearchdescription+xml" href="/content-search.xml" title="百度搜索" /><link rel="icon" sizes="any" mask href="//www.baidu.com/img/baidu.svg"><link rel="dns-prefetch" href="//s1.bdstatic.com"/><link rel="dns-prefetch" href="//t1.baidu.com"/><link rel="dns-prefetch" href="//t2.baidu.com"/><link rel="dns-prefetch" href="//t3.baidu.com"/><link rel="dns-prefetch" href="//t10.baidu.com"/><link rel="dns-prefetch" href="//t11.baidu.com"/><link rel="dns-prefetch" href="//t12.baidu.com"/><link rel="dns-prefetch" href="//b1.bdstatic.com"/><title>百度一下,你就知道</title>
……
3

如何提取?

正则表达式

正则表达式是一个大头!很多也都听过正则表达式,第一印象就是记不住,但是其实也不用特别记忆,因为在爬虫里,用的最多的基本就一个

(.*?)

( ) :表示这个内容是我们需要提取的 
.* :表示匹配任意字符0到n次 
?:表示非贪心,找对第一个就停下来

我来解释下为什么在爬虫里只要这个pattern就行了。 
在html网页源代码中,我们需要找的内容一般都是被某些标签包围的,如果我们能保证找到我们需要的内容左右的标签(并且他们是独一无二的)那么我们很容易写出一个正则表达式:

<XXX>(.*?)</XXX>

把其中的内容提取出来

python正则模块使用

python的正则模块是re,主要用的函数是(re.S的意思是让”.”可以匹配换行符,不然有些标签头和尾是分几行的,就会匹配失败

findall(pattern,str,re.S)

主力部队,把所有满足正则的内容提取出来,用于匹配满足某个条件的大量我们需要的内容。(比如所有的图片,所有的网址,所有的回复,所有的链接……)。它在网页提取中占了主要地位,工作量大,任务重,所以是主力部队。

search(pattern,str,re.S)

狙击手,用来匹配第一个找到的元素,它的目标目的就是找到我们明显知道只有一个的元素比如标题什么的,一旦找到就结束,所以它的执行速度很快。它的目标明确,效率高,所以是狙击手的角色。

sub(pattern,str,replace)

后勤,它的功能是替换,一般用于替换一个网页地址中的关键词,替换页码等。它看似不重要,但是往往能在很多方面给我们提供便利,所以是后勤。

注意:正则有时候一步不能完成我们需要的功能,可能需要进行几步操作,这时候,我们一般先提取大的部分,在从大部分里面提取我们需要的部分

我们看个很简单的例子:

import re

#假设下面是一个源码,我想保存里面所有的链接
text = ‘<a href = "www.baidu.com">....‘
urls = re.findall(‘<a href = (.*?)>‘,text,re.S)
for each in urls:
    print each

#假设我需要爬取当前网页的头部
html = ‘‘‘
<html>
<title>爬虫的基本知识</title>
<body>
……
</body>
</html>
‘‘‘
print re.search(‘<title>(.*?)</title>‘,html,re.S).group(1)
#这里group(1)表示第一个括号的内容,如果正则里面有多个括号,这里可以通过group(i)返回第i个空格里的内容



#假设下面是一个贴吧的帖子地址,有很多页,每一页就是靠后面的pn=几来区分的,我们输出前10页的网址
Pages = ‘http://tieba.baidu.com/p/4342201077?pn=1‘
for i in range(10): 
    print re.sub(‘pn=\d‘,‘pn=%d‘%i,P0"
爬虫的基本知识
http://tieba.baidu.com/p/4342201077?pn=0
http://tieba.baidu.com/p/4342201077?pn=1
http://tieba.baidu.com/p/4342201077?pn=2
http://tieba.baidu.com/p/4342201077?pn=3
http://tieba.baidu.com/p/4342201077?pn=4
http://tieba.baidu.com/p/4342201077?pn=5
http://tieba.baidu.com/p/4342201077?pn=6
http://tieba.baidu.com/p/4342201077?pn=7
http://tieba.baidu.com/p/4342201077?pn=8
http://tieba.baidu.com/p/content 1
content 2
content 3
Hello,        my        world!  

以上是关于爬虫基本知识(转载)的主要内容,如果未能解决你的问题,请参考以下文章

scrapy按顺序启动多个爬虫代码片段(python3)

scrapy主动退出爬虫的代码片段(python3)

爬虫相关法律知识

转载:Emmet使用手册

[转载]python 爬虫总结

大数据采集:爬虫框架之WebMagic的基本使用