Python BeautifulSoup 抓取表

Posted

技术标签:

【中文标题】Python BeautifulSoup 抓取表【英文标题】:Python BeautifulSoup scrape tables 【发布时间】:2013-09-28 18:28:05 【问题描述】:

我正在尝试使用 BeautifulSoup 创建一个表格抓取。我写了这段 Python 代码:

import urllib2
from bs4 import BeautifulSoup

url = "http://dofollow.netsons.org/table1.htm"  # change to whatever your url is

page = urllib2.urlopen(url).read()
soup = BeautifulSoup(page)

for i in soup.find_all('form'):
    print i.attrs['class']

我需要抓取 Nome、Cognome、Email。

【问题讨论】:

【参考方案1】:

遍历表格行(tr 标签)并获取里面的单元格文本(td 标签):

for tr in soup.find_all('tr')[2:]:
    tds = tr.find_all('td')
    print "Nome: %s, Cognome: %s, Email: %s" % \
          (tds[0].text, tds[1].text, tds[2].text)

打印:

Nome:  Massimo, Cognome:  Allegri, Email:  Allegri.Massimo@alitalia.it
Nome:  Alessandra, Cognome:  Anastasia, Email:  Anastasia.Alessandra@alitalia.it
...

仅供参考,[2:] 这里的切片是跳过两个标题行。

UPD,以下是如何将结果保存到 txt 文件:

with open('output.txt', 'w') as f:
    for tr in soup.find_all('tr')[2:]:
        tds = tr.find_all('td')
        f.write("Nome: %s, Cognome: %s, Email: %s\n" % \
              (tds[0].text, tds[1].text, tds[2].text))

【讨论】:

你能解释一下为什么在你的第一行中需要 [2:] 吗? @AZhao 当然,它在答案中 - 跳过 2 个标题行。【参考方案2】:
# Libray
from bs4 import BeautifulSoup

# Empty List
tabs = []

# File handling
with open('/home/rakesh/showHW/content.html', 'r') as fp:
    html_content = fp.read()

    table_doc = BeautifulSoup(html_content, 'html.parser')
    # parsing html content
    for tr in table_doc.table.find_all('tr'):
        tabs.append(
            'Nome': tr.find_all('td')[0].string,
            'Cogname': tr.find_all('td')[1].string,
            'Email': tr.find_all('td')[2].string
            )

    print(tabs)

【讨论】:

【参考方案3】:

OP 发布的原始链接已失效...但您可以使用gazpacho 抓取表数据:

第 1 步 - 导入 Soup 并下载 html:

from gazpacho import Soup

url = "https://en.wikipedia.org/wiki/List_of_multiple_Olympic_gold_medalists"
soup = Soup.get(url)

第 2 步 - 查找表格和表格行:

table = soup.find("table", "class": "wikitable sortable", mode="first")
trs = table.find("tr")[1:]

第 3 步 - 使用函数解析每一行以提取所需数据:

def parse_tr(tr):
    return 
        "name": tr.find("td")[0].text,
        "country": tr.find("td")[1].text,
        "medals": int(tr.find("td")[-1].text)
    

data = [parse_tr(tr) for tr in trs]
sorted(data, key=lambda x: x["medals"], reverse=True)

【讨论】:

以上是关于Python BeautifulSoup 抓取表的主要内容,如果未能解决你的问题,请参考以下文章

使用python抓取并分析数据—链家网(requests+BeautifulSoup)(转)

python3用BeautifulSoup抓取图片地址

使用beautifulsoup 和selenium webdriver 需要帮助Web 抓取表

BeautifulSoup / Python - 将 HTML 表转换为 CSV 并获取一列的 href

python 自学第二课: 使用BeautifulSoup抓取链接 正则表达式

使用 BeautifulSoup 和 Python 抓取多个页面