如何使用 Python 获取域中的所有链接?

Posted

技术标签:

【中文标题】如何使用 Python 获取域中的所有链接?【英文标题】:How to obtain all the links in a domain using Python? 【发布时间】:2016-04-10 10:39:12 【问题描述】:

我想使用 Python 获取给定“根”URL(在列表中)的域中的所有链接。假设给定一个 URL http://www.example.com 这应该返回与根 URL 相同域的此页面上的所有链接,然后递归访问这些链接中的每一个并提取相同域的所有链接等等。我所说的相同域的意思是,如果给定http://www.example.com,我想要返回的唯一链接是http://www.example.com/something、http://www.example.com/somethingelse ...任何外部的东西,例如http://www.otherwebsite.com,都应该被丢弃。如何使用 Python 做到这一点?

编辑:我尝试使用 lxml。我不认为这完全有效,我不确定如何考虑到已处理页面的链接(导致无限循环)。

import urllib
import lxml.html

#given a url returns list of all sublinks within the same domain
def getLinks(url):
        urlList = []
        urlList.append(url)
        sublinks = getSubLinks(url)
        for link in sublinks:
                absolute = url+'/'+link
                urlList.extend(getLinks(absolute))
         return urlList

#determine whether two links are within the same domain
def sameDomain(url, dom):
    return url.startswith(dom)

#get tree of sublinks in same domain, url is root
def getSubLinks(url):
    sublinks = []
    connection = urllib.urlopen(url)
    dom = lxml.html.fromstring(connection.read())
    for link in dom.xpath('//a/@href'):
                if not (link.startswith('#') or link.startswith('http') or link.startswith('mailto:')):
                        sublinks.append(link)
    return sublinks

~

【问题讨论】:

从问题标签看来您已经知道该使用什么了。也许你可以展示你尝试过的东西,否则我认为这个问题太笼统了。有一些网络抓取框架,例如 scrapy,可能会对您有所帮助。 这个问题比较难,页面中的一些链接没有协议前缀,提供本地路径。 “..”是一个有效的 URL。你想关注什么而不是关注什么? 我只想关注以根 URL 为前缀的任何内容。但是,一些相对链接没有以根 URL 为前缀,但如果我将根 URL 附加到它们之前,它们将是有效的。我也想要这些。 【参考方案1】:

@namita 的代码中存在一些错误。我对其进行了修改,现在效果很好。

import sys
import requests
import hashlib
from bs4 import BeautifulSoup
from datetime import datetime


def get_soup(link):
    """
    Return the BeautifulSoup object for input link
    """
    request_object = requests.get(link, auth=('user', 'pass'))
    soup = BeautifulSoup(request_object.content, "lxml")
    return soup

def get_status_code(link):
    """
    Return the error code for any url
    param: link
    """
    try:
        error_code = requests.get(link).status_code
    except requests.exceptions.ConnectionError:
        error_code = -1
    return error_code

def find_internal_urls(main_url, depth=0, max_depth=2):
    all_urls_info = []

    soup = get_soup(main_url)
    a_tags = soup.findAll("a", href=True)

    if main_url.endswith("/"):
        domain = main_url
    else:
        domain = "/".join(main_url.split("/")[:-1])
    print(domain)
    if depth > max_depth:
        return 
    else:
        for a_tag in a_tags:
            if "http://" not in a_tag["href"] and "https://" not in a_tag["href"] and "/" in a_tag["href"]:
                url = domain + a_tag['href']
            elif "http://" in a_tag["href"] or "https://" in a_tag["href"]:
                url = a_tag["href"]
            else:
                continue
            # print(url)

            status_dict = 
            status_dict["url"] = url
            status_dict["status_code"] = get_status_code(url)
            status_dict["timestamp"] = datetime.now()
            status_dict["depth"] = depth + 1
            all_urls_info.append(status_dict)
    return all_urls_info


if __name__ == "__main__":
    url = # your domain here
    depth = 1
    all_page_urls = find_internal_urls(url, 0, 2)
    # print("\n\n",all_page_urls)
    if depth > 1:
        for status_dict in all_page_urls:
            find_internal_urls(status_dict['url'])

【讨论】:

【参考方案2】:

这就是我所做的,只关注像http://domain[xxx] 这样的完整网址。很快,但有点脏。

import requests
import re

domain = u"***.com"
http_re = re.compile(u"(http:\/\/" + domain + "[\/\w \.-]*\/?)")

visited = set([])
def visit (url):
    visited.add (url)
    extracted_body = requests.get (url).text
    matches = re.findall (http_re, extracted_body)
    for match in matches:
        if match not in visited :
            visit (match)

visit(u"http://" + domain)    
print (visited)

【讨论】:

【参考方案3】:
import sys
import requests
import hashlib
from bs4 import BeautifulSoup
from datetime import datetime

def get_soup(link):
    """
    Return the BeautifulSoup object for input link
    """
    request_object = requests.get(link, auth=('user', 'pass'))
    soup = BeautifulSoup(request_object.content)
    return soup

def get_status_code(link):
    """
    Return the error code for any url
    param: link
    """
    try:
        error_code = requests.get(link).status_code
    except requests.exceptions.ConnectionError:
        error_code = 
    return error_code

def find_internal_urls(lufthansa_url, depth=0, max_depth=2):
    all_urls_info = []
    status_dict = 
    soup = get_soup(lufthansa_url)
    a_tags = soup.findAll("a", href=True)

    if depth > max_depth:
        return 
    else:
        for a_tag in a_tags:
            if "http" not in a_tag["href"] and "/" in a_tag["href"]:
                url = "http://www.lufthansa.com" + a_tag['href']
            elif "http" in a_tag["href"]:
                url = a_tag["href"]
            else:
                continue
            status_dict["url"] = url
            status_dict["status_code"] = get_status_code(url)
            status_dict["timestamp"] = datetime.now()
            status_dict["depth"] = depth + 1
            all_urls_info.append(status_dict)
    return all_urls_info
if __name__ == "__main__":
    depth = 2 # suppose 
    all_page_urls = find_internal_urls("someurl", 2, 2)
    if depth > 1:
        for status_dict in all_page_urls:
            find_internal_urls(status_dict['url'])

上面的 sn-p 包含了从 lufthansa arlines 网站上抓取 url 的必要模块。这里唯一额外的是您可以指定要递归抓取的深度。

【讨论】:

这是有道理的,但这是如何递归的呢?似乎只能找到第一个“级别”的链接。 你添加深度,它会搜索到那个深度。 但是 find_internal_urls 实际上在哪里被自己调用并因此在链接上递归? 我提供了模块,您可以根据需要在任何地方使用! 我认为这行不通。您正在改变 find_internal_urls 中的 all_page_urls。因此,在 main 方法中,您正在更改循环中迭代的内容,python 将其视为聚会犯规。【参考方案4】:

您可以使用正则表达式过滤掉此类链接

例如

<a\shref\=\"(http\:\/\/example\.com[^\"]*)\"

以上面的正则表达式为参考,并以此为基础开始编写脚本。

【讨论】:

【参考方案5】:

根据您的问题标签,我假设您使用的是 Beautiful Soup。 首先,您显然需要下载网页,例如使用 urllib.request。在你这样做并将内容放在一个字符串中之后,你将它传递给 Beautiful Soup。在那之后,你可以找到所有带有soup.find_all('a') 的链接,假设soup 是你漂亮的soup 对象。之后,您只需检查href:

最简单的版本是只检查“http://www.example.com”是否在 href 中,但这不会捕获相关链接。我想一些狂野的正则表达式会做(查找所有以“www.example.com”或以“/”或以“?”(php)开头的内容),或者您可能会查找包含 www 的所有内容,但不是www.example.com 并丢弃它等。正确的策略可能取决于您正在抓取的网站,以及它的编码风格。

【讨论】:

以上是关于如何使用 Python 获取域中的所有链接?的主要内容,如果未能解决你的问题,请参考以下文章

Python爬虫如何获取页面内所有URL链接?本文详解

Python爬虫如何获取页面内所有URL链接?本文详解

使 ODBC 链接访问表对用户可用

如何在Python中的函数指定的域中进行三维绘制?

如何查找文本区域中的文本是不是换行为多行?

文本区域中的字体一致性