Python爬虫学习使用Beautiful Soup库

Posted 寂天风

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python爬虫学习使用Beautiful Soup库相关的知识,希望对你有一定的参考价值。

(一)使用Beautiful Soup库(默认将HTML转换为utf-8编码)

  1,安装Beautiful Soup库:pip install beautifulsoup4

  2,简单使用:

import requests;
from _socket import timeout
from bs4 import BeautifulSoup         #使用Beautiful Soup库需要导包
#from aifc import data
def getHTMLText(url):
    try:
        r=requests.get(url,timeout=30)  
        r.raise_for_status()           #如果连接状态不是200,则引发HTTPError异常
        r.encoding=r.apparent_encoding #使返回的编码正常
        print("连接成功")
        return r.status_code
    except:
        print("连接异常")
        return r.status_code

url="https://python123.io/ws/demo.html"
#keywords={"ip":"202.204.80.112"}
access={"user-agent":"Mozilla/5.0"}              #设置访问网站为浏览器Mozilla5.0
if getHTMLText(url)==200:
    r=requests.get(url, headers=access)        
    #print(r.encoding)
    r.encoding=r.apparent_encoding
    demo=r.text
    soup=BeautifulSoup(demo,"html.parser")      #解析HTML页面,使用html.parser解析器
    print(soup.prettify())                      #打印HTML代码
   print(soup.a.attrs) #打印出该HTML文件的第一个a标签的属性,获得一个字典型数据;可以根据soup.a.attrs[\'href\']获取链接
  print(soup.a.name)             #打印第一个a标签的标签名
print(soup.a.parent.name) #打印出第一个a标签的父标签的标签名
 

  3,原理:

    

     

 (二)提取网页内容

  1,基本要素

    

  2,使用beautiful Soup库进行HTML遍历

    

     

    .contents返回列表类型;.children和.descendants返回的是迭代类型,只能用在for循环中

     

     soup的父节点为空,返回None

    

     

      平行遍历发生在一个父节点下的子节点;平行遍历可能不会获得下一个标签

    

 

   3,更好的获得HTML的内容:

    soup.prettify()方法:可以将获取的HTML内容进行格式美化,使用print方法打印HTML内容

(三)信息标记:

  

   

   1,JSON三种形式:

    1,"name":"value",一键一值

    2,"name":["value1","value2"],一键多值

    3,"name":{“name1”:"value1","name2":"value2"},嵌套键,值

     2,YAML:无类型键值对,类Python使用缩进表示所属关系,

        

     

  3,同样的信息使用三种不同形式表示和区别:

    

 

     

    

 

     

   4,信息提取:融合两种方法

    

     

   5,查找函数:

     

    简写为:

    

     当find_all函数的第一个参数name为True,则返回所有的标签信息;第一个参数可以为列表,存放想要查找的所有标签名

    第二个参数attres可以通过设置为id="id名"准确查找相关信息;也可以直接设置为"class名"查找相关信息;

    第三个参数为True,则在当前标签中查找子孙节点相关的标签或属性等;参数为False,则只在当前标签中查找子节点是否符合,不会去检索孙节点;

    可以给参数赋值正则表达式:导入re库;re.compile("匹配部分字符串");来进行HTML的模糊检索

    

 

 

 (四)实例:

  爬取最好大学网的2019年的大学排名 :爬取网站:http://www.zuihaodaxue.cn/zuihaodaxuepaiming2019.html

    使用bs4库只能爬取网页的静态数据,我们首先要查看网页源代码,查看大学排名信息是否是直接写在HTML中;发现大学排名信息是写在网站的HTML中

    然后查看robots协议内容;发现该网站没有robots.txt文件

    

    步骤一:getHTMLText()

    步骤二:定义存储数据结构为二维列表;fillUniversity()

    步骤三:printUniversity()

    开始爬取:

import requests;
import re
import bs4
from bs4 import BeautifulSoup 

#获取URL的HTML内容
def getHTMLText(url):
    try:
        access={"user-agent":"Mozilla/5.0"}              #设置访问网站为浏览器Mozilla5.0
        r=requests.get(url,timeout=300,headers=access)  
        r.raise_for_status()           #如果连接状态不是200,则引发HTTPError异常
        r.encoding=r.apparent_encoding #使返回的编码正常
        print("连接成功")
        return r.text
    except:
        print("连接异常")
        return ""
#提取HTML的大学排名信息并将信息填入ulist:存储结构(二维列表)
def fillUniversity(ulist,html):
    soup=BeautifulSoup(html,"html.parser")
    for tr in soup.find("tbody").children:
        if isinstance(tr, bs4.element.Tag):                  #排除子节点中非标签的节点
            tds=tr(\'td\')
            ulist.append([tds[0].string,tds[1].string,tds[3].string])
#输出排名信息;先输出表头,然后输出具体信息
def printUniversity(ulist,num):
    print("-"*50)
    print("{:^5s}\\t{:^20s}\\t{:^10s}".format("排名","学校排名","评分"))    #{^10}中^表示内容居中为10格宽对齐,10表示输出长度
    print("-"*50)
    for i in range(num):                    #ulist是一个二维数组型列表,每个数据也是一个一维数组,遍历ulist中前200个数据
        u=ulist[i]
        print("{:^5s}\\t{:^20s}\\t{:^10s}".format(u[0],u[1],u[2]))      #format函数^对齐输出中文字符时默认使用西文字符的空格填充,导致中文对齐效果不好
        print("-"*50)
#主函数
def main():
    uinfo=[]
    url="http://www.zuihaodaxue.cn/zuihaodaxuepaiming2019.html"      #大学排名网
    html=getHTMLText(url)
    fillUniversity(uinfo, html)
    printUniversity(uinfo, 200)                      #获取排名前200个学校

#启动主函数
if __name__=="__main__":
    main()

    截图:

      

 

     

 

     优化后的输出函数:

def printUniversity(ulist,num):
    print("-"*50)
    str="{0:^5}\\t{1:{3}^10}\\t{2:^10}"    #{3}指使用format函数的第三个变量进行填充,
    print(str.format("排名","大学名称","评分",chr(12288)))
    print("-"*50)
    for i in range(num):
        u=ulist[i]
        print(str.format(u[0],u[1],u[2],chr(12288)))
        print("-"*50)

    

 

以上是关于Python爬虫学习使用Beautiful Soup库的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫学习Beautiful Soup库

Python爬虫学习笔记.Beautiful Soup库的使用

Python爬虫学习笔记.Beautiful Soup库的使用

Python3 爬虫Beautiful Soup库的使用

python下很帅气的爬虫包 - Beautiful Soup 示例

Python爬虫学习实践基于Beautiful Soup的网站解析及数据可视化