Python--开发简单爬虫

Posted 艾里_Smiple

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python--开发简单爬虫相关的知识,希望对你有一定的参考价值。

简单爬虫架构

动态运行流程

URL管理器的作用

URL管理器的3种实现方式

网页下载器的作用

Python网页下载器的种类

urllib2下载网页的3种方法

网页解析器的作用

Python的几种网页解析器

结构化解析依赖DOM树

Beautiful Soup语法

代码举例:

1.创建Beautiful Soup对象

1 from bs4 import BeautifulSoup
2 
3 soup = BeautifulSoup(
4     html_doc,               #HTML文档字符串
5     \'heml.parser\',          #HTML解析器
6     from_encoding=\'utf-8\'   #HTML文档的编码
7 )

2.find_all find方法的使用

3.访问节点信息

4.Beautiful Soup处理html文档举例

 1 from bs4 import BeautifulSoup
 2 import re
 3 
 4 html_doc = """
 5 <html><head><title>The Dormouse\'s story</title></head>
 6 <body>
 7 <p class="title"><b>The Dormouse\'s story</b></p>
 8 
 9 <p class="story">Once upon a time there were three little sisters; and their names were
10 <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
11 <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
12 <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
13 and they lived at the bottom of a well.</p>
14 
15 <p class="story">...</p>
16 """
17 
18 soup = BeautifulSoup(
19     html_doc,               #HTML文档字符串
20     \'html.parser\',          #HTML解析器
21     from_encoding=\'utf-8\'   #HTML文档的编码
22 )
23 
24 print(\'获取所有的连接\')
25 links = soup.find_all(\'a\')
26 for link in links:
27     print(link.name,link[\'href\'],link.get_text())
28 
29 print(\'获取tillie的连接\')
30 link_node = soup.find(\'a\',href=\'http://example.com/tillie\')
31 print(link_node.name,link_node[\'href\'],link_node.get_text())
32 
33 print(\'正则表达式匹配\')
34 link_node2 = soup.find(\'a\',href=re.compile(r\'lsi\'))
35 print(link_node2.name,link_node2[\'href\'],link_node2.get_text())
36 
37 print(\'获取P段落文字\')
38 p_node = soup.find(\'p\',class_=\'title\')
39 print(p_node.name,p_node.get_text())

控制台输出:

 1 获取所有的连接
 2 a http://example.com/elsie Elsie
 3 a http://example.com/lacie Lacie
 4 a http://example.com/tillie Tillie
 5 获取tillie的连接
 6 a http://example.com/tillie Tillie
 7 正则表达式匹配
 8 a http://example.com/elsie Elsie
 9 获取P段落文字
10 p The Dormouse\'s story

更高级的爬虫还会涉及到“需登陆、验证码、Ajax、服务器防爬虫、多线程、分布式”等情况

 

以上是关于Python--开发简单爬虫的主要内容,如果未能解决你的问题,请参考以下文章

Python--开发简单爬虫

Python 开发简单爬虫 - 实战演练

python爬虫(简单版)

Python 教你 4 行代码开发新闻网站通用爬虫

python爬虫学习笔记-M3U8流视频数据爬虫

爬虫遇到头疼的验证码?Python实战讲解弹窗处理和验证码识别