python爬虫入门---第二篇:获取2019年中国大学排名
Posted Mr hu
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python爬虫入门---第二篇:获取2019年中国大学排名相关的知识,希望对你有一定的参考价值。
我们需要爬取的网站:最好大学网
我们需要爬取的内容即为该网页中的表格部分:
该部分的html关键代码为:
其中整个表的标签为<tbody>标签,每行的标签为<tr>标签,每行中的每个单元格的标签为<td>标签,而我们所需的内容即为每个单元格中的内容。
因此编写程序的大概思路就是先找到整个表格的<tbody>标签,再遍历<tbody>标签下的所有<tr>标签,最后遍历<tr>标签下的所有<td>标签,
我们用二维列表来存储所有的数据,其中二维列表中的每个列表用于存储一行中的每个单元格数据,即<tr>标签下的所有<td>标签中的所有字符串。
代码如下;
import requests from bs4 import BeautifulSoup import bs4 def get_html_text(url): \'\'\'返回网页的HTML代码\'\'\' try: res = requests.get(url, timeout = 6) res.raise_for_status() res.encoding = res.apparent_encoding return res.text except: return \'\' def fill_ulist(ulist, html): \'\'\'将我们所需的数据写入一个列表ulist\'\'\' #解析HTML代码,并获得解析后的对象soup soup = BeautifulSoup(html, \'html.parser\') #遍历得到第一个<tbody>标签 tbody = soup.tbody #遍历<tbody>标签的孩子,即<tbody>下的所有<tr>标签及字符串 for tr in tbody.children: #排除字符串 if isinstance(tr, bs4.element.Tag): #使用find_all()函数找到tr标签中的所有<td>标签 u = tr.find_all(\'td\') #将<td>标签中的字符串内容写入列表ulist ulist.append([u[0].string, u[1].string, u[2].string, u[3].string]) def display_urank(ulist): \'\'\'格式化输出大学排名\'\'\' tplt = "{:^5}\\t{:{ocp}^12}\\t{:{ocp}^5}\\t{:^5}" #方便中文对其显示,使用中文字宽作为站字符,chr(12288)为中文空格符 print(tplt.format("排名", "大学名称", "省市", "总分", ocp = chr(12288))) for u in ulist: print(tplt.format(u[0], u[1], u[2], u[3], ocp = chr(12288))) def write_in_file(ulist, file_path): \'\'\'将大学排名写入文件\'\'\' tplt = "{:^5}\\t{:{ocp}^12}\\t{:{ocp}^5}\\t{:^5}\\n" with open(file_path, \'w\') as file_object: file_object.write(\'软科中国最好大学排名2019版:\\n\\n\') file_object.write(tplt.format("排名", "大学名称", "省市", "总分", ocp = chr(12288))) for u in ulist: file_object.write(tplt.format(u[0], u[1], u[2], u[3], ocp = chr(12288))) def main(): \'\'\'主函数\'\'\' ulist = [] url = \'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2019.html\' file_path = \'university rankings.txt\' html = get_html_text(url) fill_ulist(ulist, html) display_urank(ulist) write_in_file(ulist, file_path) main()
打印显示:
以上是关于python爬虫入门---第二篇:获取2019年中国大学排名的主要内容,如果未能解决你的问题,请参考以下文章
python应用:爬虫框架Scrapy系统学习第二篇——windows下安装scrapy