并发爬取网站图片

Posted guxh

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了并发爬取网站图片相关的知识,希望对你有一定的参考价值。

某网站的图片:

通过“https://photo.fengniao.com/#p=4”(人像)进入某一主题。

显示的是几十张缩略的小图片以及相应的跳转地址,点击小图片后获取大图片。

想获取小图片背后的大图片,如果通过串行方法依次访问大图链接后保存,会非常耗时。

 

1,使用多线程获取图片

import requests
from lxml import etree
from concurrent.futures import ThreadPoolExecutor
from functools import partial


def get_paths(path, regex, code):
    """
    :param path: 网页
    :param regex: 解析规则
    :param code: 编码
    :return: 根据解析规则,解析网页后返回内容列表
    """
    resp = requests.get(path)
    if resp.status_code == 200:
        content = resp.content.decode(code)
        select = etree.html(content)
        paths = select.xpath(regex)
        return paths


def save_pic(path, pic_name, directory):
    """
    :param pic_name: 保存的图片名称
    :param path: 图片的地址
    :param directory: 保存的图片目录
    """
    resp = requests.get(path, stream=True)
    if resp.status_code == 200:
        with open(‘{}/{}.jpg‘.format(directory, pic_name), ‘wb‘) as f:
            f.write(resp.content)


if __name__ == ‘__main__‘:
    paths = get_paths(‘https://photo.fengniao.com/#p=4‘, ‘//a[@class="pic"]/@href‘, ‘utf-8‘)
    paths = [‘https://photo.fengniao.com/‘ + p for p in paths]

    # 获取所有大图片路径
    p = partial(get_paths, regex=‘//img[@class="picBig"]/@src‘, code=‘utf-8‘)  # 冻结规则和编码
    with ThreadPoolExecutor() as excutor:
        res = excutor.map(p, paths)
    big_paths = [i[0] for i in res]  # 拿到所有图片的路径

    # 保存图片
    p = partial(save_pic, directory=‘fn_pics‘)   # 冻结保存目录
    with ThreadPoolExecutor() as excutor:
        res = excutor.map(p, range(len(big_paths)), big_paths)
    [r for r in res]  # res是个迭代器,需要遍历触发

 

以上是关于并发爬取网站图片的主要内容,如果未能解决你的问题,请参考以下文章

Swift新async/await并发中利用Task防止指定代码片段执行的数据竞争(Data Race)问题

Python如何爬取百度图片?

不知羞耻!!我居然爬取了图X网站的图片

爬虫实例—— 爬取高清4K图片

爬虫实例—— 爬取高清4K图片

爬虫实例—— 爬取高清4K图片