深度优先广度优先python爬虫

Posted 小塞

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度优先广度优先python爬虫相关的知识,希望对你有一定的参考价值。

搜索引擎课的一次小实验~

题目是这样的:

以指定网址为根节点,遍历(深度优先、广度优先)访问 50 个页面并爬取这些页面上的所有网址。

代码

import re
import requests
from requests.exceptions import ReadTimeout, ConnectionError, RequestException
import urllib3
# 使用requests访问https时会有SSL验证,需要在get方法时关闭验证,同时会显示警告
urllib3.disable_warnings() # 用该行代码消除警告

visited = [] # 已经访问过(爬取过)的url。访问:即get该页面并取出该页面上的所有url
unvisited = [] # 已经取出的、但是还没有访问的/等待访问的url
url_count = 0 # 已经访问过的url数量
END_COUNT = 50 # 总共需要访问的url数量
end_flag = False # 标志是否该结束了(url_count >= END_COUNT)

# 访问页面:获取指定页面中含有的url
def visit(url, depth):
    visited.append(url) # 将该链接置为访问过
    try:
        req = requests.get(url, verify=False, timeout=5) # verify参数:关闭SSL验证
    except ReadTimeout: # 超时异常
        print(\'Timeout: \', url)
         ## 需要把当前的 url 放到任务中,过一段时间再尝试连接
    except ConnectionError: # 连接异常
        print(\'Connection error: \', url)
    except RequestException: # 请求异常
        print(\'Error: \', url)
    else:
        if req.status_code == 404:
            print(\'404页面不存在: \', url)
            ## 把当前的 url 从爬虫任务中删除掉
        if req.status_code == 403:
            print(\'403页面禁止访问: \', url)
            ## ... 
        if req.status_code == 200:

            # 如果正确访问,count+1;判断是否结束
            global url_count
            global end_flag
            url_count += 1
            if url_count >= END_COUNT:
                end_flag = True

            print("\\t"*depth, "#%d-%d %s"%(depth, url_count, url))

            PATTERN_URl = "<a.*href=\\"(https?://.*?)[\\"|\\\'].*"
            ulist = re.findall(PATTERN_URl, req.text)
            ulist = [url for url in ulist if url.find(".pdf") == -1 ] # 为了防止下载pdf文件,特意跳过了:只保留没有".pdf"后缀的url

            return ulist
    return None


def dfs(url, depth=1):
    ulist = visit(url, depth)
    if ulist:
        ulist = list(set(ulist)-set(visited)) # ulist是局部变量,指的是一个节点的所有子节点
        for url in ulist:
            if depth<3 and not end_flag: # 只访问1、2、3层(根节点是第0层)
                dfs(url, depth+1)


def bfs(url):
    depth = 0
    global unvisited
    unvisited.append([url, depth])

    while(unvisited): # unvisited每个元素是[url, depth]
        [url, depth] = unvisited.pop(0)

        # 只访问1、2层
        if end_flag or depth >= 3:
            break
        
        ulist = visit(url, depth)
        if ulist:
            ulist = list(set(ulist)-set(visited))
            depth += 1 # ulist中的url都是当前url的孩子,所以深度加一
            unvisited = unvisited + [[url, depth] for url in ulist]

if __name__ == \'__main__\':
    start_url = "http://www.hzau.edu.cn"
    strategy = input("输入dfs/bfs:")
    if strategy == "dfs":
        print("\\t"*0, "#%d %s"%(0, start_url))
        dfs(start_url)
    elif strategy == "bfs":
        bfs(start_url)
    else:
        print("输入格式有误,请重新输入")

结果截图


以上是关于深度优先广度优先python爬虫的主要内容,如果未能解决你的问题,请参考以下文章

浅谈网络爬虫中广度优先算法和代码实现

Python爬虫从入门到放弃之 关于深度优先和广度优先

Python爬虫从入门到放弃之 关于深度优先和广度优先

第三百三十八节,Python分布式爬虫打造搜索引擎Scrapy精讲—深度优先与广度优先原理

Python之 爬虫关于深度优先和广度优先

scrapy是深度优先还是广度优先?-Python每日3题(爬虫专题)