记录 Beautiful Soup 库的一个坑(获取标签内的文本字符串内容时需要注意空格)

Posted Xavier Jiezou

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了记录 Beautiful Soup 库的一个坑(获取标签内的文本字符串内容时需要注意空格)相关的知识,希望对你有一定的参考价值。

项目场景

Beautiful Soup 是一个可以从 html 或 XML 文件中提取数据的第三方 Python 库,通常在网络爬虫项目中使用。今天,笔者在使用过程中遇到了一个坑,在此记录,并将解决方案分享给大家。

问题描述

参考官方文档可知:如果标签里面只有一个子节点,使用 .string 方法可以获得标签内的文本内容。

但是,运行下列代码的输出结果却分别是 NoneZXC's Blog

from bs4 import BeautifulSoup
html = '''<p> <a href="https://ghgxj.xyz/">ZXC's Blog</a></p>'''
soup = BeautifulSoup(html, 'lxml')
print(soup.string) # None
print(soup.select_one('a').string) # ZXC's Blog

细心的同学可能已经发现问题了,p 标签和 a 标签中间有一个空格,空格也算一个子节点,导致 p 标签下有2个子节点了,不满足 .string 方法的使用要求,所以返回 None

那么,问题来了,不采用 .select_one 方法,如果获取 a 标签内的文本内容?

解决方案

使用 .stripped_strings 可以获取标签内的多个文本内容,并去掉空白内容:

print(next(soup.stripped_strings)) # ZXC's Blog

引用参考

BeautifulSoup 官方文档->string
BeautifulSoup 官方文档->strings-stripped-strings

以上是关于记录 Beautiful Soup 库的一个坑(获取标签内的文本字符串内容时需要注意空格)的主要内容,如果未能解决你的问题,请参考以下文章

Python3 爬虫Beautiful Soup库的使用

Python Beautiful Soup 解析库的使用

Python 爬虫 解析库的使用 --- Beautiful Soup

Python爬虫学习笔记.Beautiful Soup库的使用

Python爬虫学习笔记.Beautiful Soup库的使用

ubuntu下的python网页解析库的安装——lxml, Beautiful Soup, pyquery, tesserocr