lxml解析网页

Posted wl443587

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了lxml解析网页相关的知识,希望对你有一定的参考价值。

1.什么是XPath?

XPath (XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。

W3School官方文档:http://www.w3school.com.cn/xpath/index.asp

2.XPath 开发工具

-   开源的XPath表达式编辑工具:XMLQuire(XML格式文件可用)

-     Chrome插件 XPath Helper

-     Firefox插件 XPath Checker

3.选取节点

XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

3.1下面列出了最常用的路径表达式:

表达式

描述

nodename

选取此节点的所有子节点。

/

从根节点选取。

//

从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。

.

选取当前节点。

..

选取当前节点的父节点。

@

选取属性。

 

3.2 在下面的表格中,已列出了一些路径表达式以及表达式的结果:

路径表达式

说明

bookstore

选取 bookstore 元素的所有子节点。

/bookstore

选取根元素 bookstore。注释:假如路径起始于正斜杠

( / ),则此路径始终代表到某元素的绝对路径!

bookstore/book

选取属于 bookstore 的子元素的所有 book 元素。

//book

选取所有 book 子元素,而不管它们在文档中的位置。

bookstore//book

选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。

//@lang

选取名为 lang 的所有属性。

 

4.谓语(Predicates)

谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中。

在下面的表格中,列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式

结果

/bookstore/book[1]

选取属于 bookstore 子元素的第一个 book 元素。

/bookstore/book[last()]

选取属于 bookstore 子元素的最后一个 book 元素

/bookstore/book[last()-1]

选取属于 bookstore 子元素的倒数第二个 book 元素。

/bookstore/book[position()<3]

选取最前面的两个属于 bookstore 元素的子元素的 book 元素。

//title[@lang]

选取所有拥有名为 lang 的属性的 title 元素。

//title[@lang=’eng’]

选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。

/bookstore/book[price>35.00]

选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。

/bookstore/book[price>35.00]/title

选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

 

 

 

5.选取未知节点

XPath 通配符可用来选取未知的 XML 元素。

通配符

描述

*

匹配任何元素节点。

@*

匹配任何属性节点。

node()

匹配任何类型的节点。

 

在下面的表格中,列出了一些路径表达式,以及这些表达式的结果:

路径表达式

结果

/bookstore/*

选取 bookstore 元素的所有子元素。

//*

选取文档中的所有元素。

//title[@*]

选取所有带有属性的 title 元素。

 

6.选取若干路径

通过在路径表达式中使用“|”运算符,可以选取若干个路径。

在下面的表格中,列出了一些路径表达式,以及这些表达式的结果:

路径表达式

结果

//book/title | //book/price

选取 book 元素的所有 title 和 price 元素。

//title | //price

选取文档中的所有 title 和 price 元素。

/bookstore/book/title | //price

选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

 

 

 

7.lxml

lxml 是 一个html/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。

lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

lxml python 官方文档:http://lxml.de/index.html

需要安装C语言库,可使用 pip 安装:pip install lxml (或通过wheel方式安装)

7.1初步使用

我们利用它来解析 HTML 代码,简单示例:

# 使用 lxml 的 etree 库

  from lxml import etree

text = ‘‘‘

<div>

    <ul>

         <li class="item-0"><a href="link1.html">first item</a></li>

         <li class="item-1"><a href="link2.html">second item</a></li>

         <li class="item-inactive"><a href="link3.html">third item</a></li>

         <li class="item-1"><a href="link4.html">fourth item</a></li>

         <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 </li> 闭合标签

     </ul>

 </div>

‘‘‘

  #利用etree.HTML,将字符串解析为HTML文档

  html = etree.HTML(text)

  

  # 按字符串序列化HTML文档

  result = etree.tostring(html)

  print(result)
 

输出结果:

<html><body>

<div>

    <ul>

         <li class="item-0"><a href="link1.html">first item</a></li>

         <li class="item-1"><a href="link2.html">second item</a></li>

         <li class="item-inactive"><a href="link3.html">third item</a></li>

         <li class="item-1"><a href="link4.html">fourth item</a></li>

         <li class="item-0"><a href="link5.html">fifth item</a></li>

</ul>

 </div>

</body></html>

 


7.2
文件读取:lxml 可以自动修正 html 代码,例子里不仅补全了 li 标签,还添加了 body,html 标签。

除了直接读取字符串,lxml还支持从文件里读取内容。我们新建一个hello.html文件:

<!-- hello.html -->

 

<div>

    <ul>

         <li class="item-0"><a href="link1.html">first item</a></li>

         <li class="item-1"><a href="link2.html">second item</a></li>

         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>

         <li class="item-1"><a href="link4.html">fourth item</a></li>

         <li class="item-0"><a href="link5.html">fifth item</a></li>

     </ul>

 </div>

再利用 etree.parse() 方法来读取文件。

# lxml_parse.py

 

from lxml import etree

 

# 读取外部文件 hello.html

html = etree.parse(./hello.html)

result = etree.tostring(html, pretty_print=True)

 

print(result)

输出结果与之前相同:

<html><body>

<div>

    <ul>

         <li class="item-0"><a href="link1.html">first item</a></li>

         <li class="item-1"><a href="link2.html">second item</a></li>

         <li class="item-inactive"><a href="link3.html">third item</a></li>

         <li class="item-1"><a href="link4.html">fourth item</a></li>

         <li class="item-0"><a href="link5.html">fifth item</a></li>

</ul>

 </div>

</body></html>

 

8.XPath实例测试

# 使用 lxml 的 etree 库

from lxml import etree

text = ‘‘‘

<div>

    <ul>

         <li class="item-0"><a href="link1.html">first item</a></li>

         <li class="item-1"><a href="link2.html">second item</a></li>

         <li class="item-inactive"><a href="link3.html">third item</a></li>

         <li class="item-1"><a href="link4.html">fourth item</a></li>

         <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 </li> 闭合标签

     </ul>

 </div>

‘‘‘

  #利用etree.HTML,将字符串解析为HTML文档

  html = etree.HTML(text)

  

  #获取所有的<li>标签

  result = html.xpath(//li)

  

  # 获取<li> 标签的所有 class属性

  result = html.xpath(//li/@class)

  

  #获取<li>标签下hre 为 link1.html 的 <a> 标签

  result = html.xpath(//li/a[@href="link1.html"])

  

  #获取<li> 标签下的所有 <span> 标签

  result = html.xpath(//li/span)

  

  # 获取 <li> 标签下的<a>标签里的所有 class

  result = html.xpath(//li/a//@class)

  

  #获取最后一个 <li> 的 <a> 的 href

  result = html.xpath(//li[last()]/a/@href)

  

  # 获取倒数第二个元素的内容

  result = html.xpath(//li[last()-1]/a)

  

  # 获取 class 值为 item-inactive的标签名

  result = html.xpath(//*[@class="item-inactive"])

  print(result)

 

  

9.爬取LOL百度贴吧的图片

  import os

  from lxml import etree

  from urllib import request,error,parse

  

  class Spider:

    def __init__(self):

        self.tiebaName = ‘lol‘

        self.beginPage = int(input(请输入开始页:))

        self.endPage = int(input(请输入结束页:))

        self.url = http://tieba.baidu.com/f

        self.header = {"User-Agent": "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1 Trident/5.0;"}

        self.userName = 1  # # 图片编号

  

    def tiebaSpider(self):

        for page in range(self.beginPage, self.endPage + 1):

            pn = (page - 1) * 50

            data = {pn:pn, kw:self.tiebaName}

            myUrl = self.url + ? + parse.urlencode(data)

  

            # 调用 页面处理函数 load_Page,获取页面所有帖子链接,

            links = self.loadPage(myUrl)

  

    # 读取页面内容

    def loadPage(self,url):

        req = request.Request(url, headers=self.header)

        resp = request.urlopen(req).read()

        # 将resp解析为html文档

        html = etree.HTML(resp)

  

        # 抓取当前页面的所有帖子的url的后半部分,也就是帖子编号

        url_list = html.xpath(//div[@class="threadlist_lz clearfix"]/div/a/@href)

  

        # url_list 类型为 etreeElementString 列表

        # 遍历列表,并且合并成一个帖子地址,调用 图片处理函数 loadImage

        for row in url_list:

            row = "http://tieba.baidu.com" + row

            self.loadImages(row)

  

    # 下载图片

    def loadImages(self, url):

        req = request.Request(url, headers=self.header)

        resp = request.urlopen(req).read()

        # 将resp解析为html文档

        html = etree.HTML(resp)

        # 获取这个帖子里所有图片的src路径

        image_urls = html.xpath(//img[@class="BDE_Image"]/@src)

  

        # 依次取出图片路径,下载保存

        for image in image_urls :

            self.writeImages(image)

  

            # 保存页面内容

  

    def writeImages(self, url):

        ‘‘‘

        将 images 里的二进制内容存入到 userNname 文件中

        ‘‘‘

  

        print(url)

        print("正在存储文件 %d ..." % self.userName)

        # 1. 打开文件,返回一个文件对象

        path = rD:zhappian +  \ + str(self.userName) + .png

        file = open(path, wb)

        # 获取图片里的内容

        images = request.urlopen(url).read()

        # 调用文件对象write() 方法,将page_html的内容写入到文件里

        file.write(images)

        file.close()

        # 计数器自增1

        self.userName += 1

  

  

  # 模拟 main 函数

  if __name__ == "__main__":

  

    # 首先创建爬虫对象

    mySpider = Spider()

    # 调用爬虫对象的方法,开始工作

    mySpider.tiebaSpider()

 

 


以上是关于lxml解析网页的主要内容,如果未能解决你的问题,请参考以下文章

学习笔记Python - Lxml

ubuntu下的python网页解析库的安装——lxml, Beautiful Soup, pyquery, tesserocr

美丽的汤和桌子刮 - lxml 与 html 解析器

Xpath vs DOM vs BeautifulSoup vs lxml vs other 哪个是解析网页的最快方法?

关于爬虫中常见的两个网页解析工具的分析 —— lxml / xpath 与 bs4 / BeautifulSoup

python3解析库lxml的windows/Linux/Mac三大平台安装教程