网页提取的工具

Posted nxrs

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了网页提取的工具相关的知识,希望对你有一定的参考价值。

1.xpath
什么是xpath?
xml是用来存储和传输数据使用的
html的差异:
(1) html用来显示数据,xml是用来传输数据的
(2) html标签是固定的,xml标签是自定义的
XPath 是一门在 XML 文档中查找信息的语言,他是一种路径表达式

常见的路径表达式
// :不考虑位置的查找
./ :从当前节点往下面查找
@ :选取属性

示例:
/bookstore/book 选取根节点bookstore下的所有直接子节点book
//book 选取所有book
bookstore//book 查找bookstore下的所有book节点
/bookstore/book[1] 选取bookstore下的第一个子元素book
/bookstore/book[last()] 选取bookstore下的最后一个子元素book
/bookstore/book[position()<3] 选取bookstore下的前两个子元素book
//title[@lang] 选取所有带有lang属性的title
//title[@lang=‘eng‘] 选取所有带有lang属性值为eng的title
* 任何元素节点

属性定位 //input[@id=‘kw‘]
层级定位 //div[@id="head"]/div/div[3]/a[1] 通过子节点和索引(从1开始) 进行定位

逻辑运算 and
# 包含class属性,并且属性中带有‘s‘
模糊匹配 //input[contains(@class,"s")]
//input[starts-with(@class,"s")]
取文本 //div[@id="u1"]/a[5]/text()
# 获取div下面的所有text,包括其他标签中的文本
//div[@id="u1"]//text()
取属性 //div[@id="u1"]/a[5]/@href

2.bs4 BeautifulSoup
(1) 根据标签名查找

(2)
from bs4 import BeautifulSoup

# 生成对象
soup = BeautifulSoup(open(‘soup.html‘, encoding="utf8"), ‘html.parser‘)
# print(type(soup))
# print(soup.a) # 只能找到第一个符合条件的标签
# print(soup.a[‘href‘]) # 利用字典的形式获取标签中的属性 soup.a.attrs[‘href‘]
# print(soup.a.attrs) # 返回一个所有属性组成的字典
# print(soup.a.string) # 获取标签的内容 soup.a.text soup.a.get_text() 获取的结果相同
# print(soup.a.get_text())
# print(soup.a.text)
# 上述三个有何差异呢?
# print(soup.div.string) # None 如果标签中还有标签,那么string获取None,而其他两个,可以获取文本
# print(soup.div.text)
# print(soup.div.get_text())
# find方法
# print(soup.find(‘a‘)) # soup.a 找到第一个符合条件的标签
# print(soup.find(‘a‘, class_="du")) # class为关键字 class_="xxx"
# div = soup.find(‘div‘, class_=‘tang‘) # 不仅soup可以使用find方法,普通的div也可以使用find
# print(div.find(‘a‘, class_=‘du‘))
# findall 方法
# print(soup.find_all(‘a‘)) # 以列表
div = soup.find("div", class_=‘tang‘)
# print(div.find_all(‘a‘))
# print(div.find_all([‘a‘, ‘b‘])) # 寻找div标签下的a和b标签
# print(div.find_all(‘a‘, limit=2)) # 取前两个a标签

# select 根据选择器选择指定的内容
# 常见的选择器:标签选择器,类选择器,id选择器,组合选择器,层级选择器,伪类选择器,属性选择器
# select选择器永远返回的是列表
# print(soup.select(‘.tang > ul > li > a‘)[2]) # 寻找class=tang下面的子标签ul下面的li下面的a标签
# print(soup.select(‘#feng‘)[0].string) # 查找id=feng的标签
print(div.select(‘.du‘))

 

 

3.jsonpath:用来解析json数据使用的
Python处理json格式

import json
json.dumps() # 将字典或列表转化为json格式
json.loads() # 将json格式字符串转化为python对象
# json.dump(list,open("json.txt","w",encoding="utf8"))
json.dump() # 将字典或列表转化为json格式并且写入文件中
json.load() # 从文件中读取json格式字符串,转化为python对象
前端处理:
json.parse(‘json格式字符串‘) # 将json格式字符串转化为js对象
eval(‘(‘+ json格式字符串 + ‘)‘)
安装
import jsonpath
import json

# 将json字符串转化为python对象
obj = json.load(open("book", "r", encoding=‘utf8‘))
# 查找第一本书的作者
# ret = jsonpath.jsonpath(obj, ‘$.store.book[0].author‘)
# 查找book下面的所有作者
# ret = jsonpath.jsonpath(obj, ‘$.store.book[*].author‘)
# 查找所有作者
# ret = jsonpath.jsonpath(obj, ‘$..author‘)
# 查找store下的所有对象
# ret = jsonpath.jsonpath(obj, ‘$.store.*‘)
# 查找store下的所有price
# ret = jsonpath.jsonpath(obj, ‘$.store..price‘)
# 查找第三本书,返回一个列表
# ret = jsonpath.jsonpath(obj, ‘$..book[2]‘)
# 查找最后一本book
# ret = jsonpath.jsonpath(obj, ‘$..book[(@.length-1)]‘)
# 查找第一,二本书
# ret = jsonpath.jsonpath(obj, ‘$..book[0,1]‘)
# ret = jsonpath.jsonpath(obj, ‘$..book[:2]‘)
# 过滤出所有包含isbn属性的书
# ret = jsonpath.jsonpath(obj, ‘$..book[?(@.isbn)]‘)
# 查找所有price<10的书
# ret = jsonpath.jsonpath(obj, ‘$..book[?(@.price<10)]‘)

# print(ret)

 

以上是关于网页提取的工具的主要内容,如果未能解决你的问题,请参考以下文章

jableparser: 通用的网页正文+表格提取工具

jableparser: 通用的网页正文+表格提取工具

vb中提取网页中的数据

用Vb提取网页中的数据

网页提取的工具

怎么把这个表格的内容提取到网页上面?