基于python爬虫下载网站在线视频

Posted 楊木木8023

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于python爬虫下载网站在线视频相关的知识,希望对你有一定的参考价值。

运行展示

程序运行后的结果如下所示:

 系统可以对mp4和m3u8的视频进行下载,具体的下载方法见下文描述。

流程分析

对于下载网站的在线视频,首先需要找到视频对应的url,我们知道浏览器在线播放的视频肯定是从服务器端进行的资源获取,那么就存在视频的url来让浏览器端进行视频的获取,在线视频的url一般就是两种格式:.mp4 和 .ts,而.mp4的链接就可以直接对链接进行请求获取视频,但是以.ts结尾的视频,实际上是将一个大的视频进行分片,分为若干个小的视频片段,所以对于.ts结尾的视频,需要获取所有的完整的.ts片段,也就是需要获取.m3u8文件内的所有链接,对这些链接逐一请求下载,然后再对每一个片段合并即是完整的视频。

现在的部分网站的反爬措施做的比较好,而且视频进行加密处理,获取难度较高。所以我们仅针对没有进行视频加密的网站进行在线视频获取。主要分为MP4和m3u8两种视频的获取。

1、MP4

对于部分在线视频,直接可以利用浏览器的抓包工具获取视频的MP4链接, 例如,以浙江卫视为例,打开某个视频片段,然后右键检查,就可以看到网页的源代码,如下所示。

在源码中可以直接找到以.mp4结尾的视频的链接,如下所示。

 或者,点击network,过滤MP4或者m3u8查看链接,如下图所示。

 其中的request url就是MP4视频的链接。

2、m3u8

对于某些网站,其在线视频采用.ts的片段进行播放,所以需要获取到所有的.ts片段的链接,以cctv为例,进行抓包,可以看见大量的.ts结尾的包,如下所示。经过观察可以发现,每个ts的url只有最后一部分不一样。

 .ts片段的链接(或者每个ts不一样的部分)一般会存放在.m3u8文件中,过滤出m3u8,如下所示。

 利用m3u8里面的数据就可以获取到每一个ts片段了。

代码编写

主要实现的功能如下:

实现对在线视频(mp4、m3u8)的下载,具体包括:
(1)多线程下载
(2)ts视频文件合并
(3)进度条显示
(4)日志记录
(5)重复下载提示

1、mp4文件下载方法

"""以下是对直接有mp4文件地址的视频进行下载的操作"""
    # 直接针对mp4链接视频的获取
    def get_video_mp4(self):
        mp4_path = 'videoMP4\\\\' + 'video' + ''.join(str(time.time()).split('.', 2)) + '.mp4'
        # stream=True 意味着,当函数返回时,仅响应标头被下载,响应主体不会
        try:
            response_head = requests.get(url=self.url_m3u8, stream=True, headers=self.headers)
        except Exception as e:
            print(e)
            exit()

        # 判断是否有正确的响应,如没有正确响应则说明url出错,不能正确下载,退出程序
        if response_head.status_code != 200:
            print('下载出错!')
            exit()

        # 获取响应头中的文件大小
        length = float(response_head.headers['content-length'])

        # 下载文件,对文件进行分块下载,每次512kb,方便对文件目录实时读取获得已下载的大小
        def write_video():
            count = 0
            with open(mp4_path, 'wb') as fp:
                for chunk in response_head.iter_content(chunk_size=512):
                    if chunk:
                        fp.write(chunk)
                        count += len(chunk)

        # 计算下载进度,用已下载的文件大小/文件总的大小
        def progress_bar():
            start = time.perf_counter()
            while True:
                down_size = os.path.getsize(mp4_path)
                p = math.ceil((down_size / length) * 100)  # 向上进行取整,确保下载完成是的进度为100%
                dur = time.perf_counter() - start

                print("\\r", end="")
                print("下载进度: {}%: ".format(p), "▋" * (p // 2), "{:.2f}s".format(dur), end="")
                sys.stdout.flush()
                time.sleep(0.05)
                if p == 100:
                    break
            print()

        t1 = threading.Thread(target=write_video)
        t1.start()
        progress_bar()
        t1.join()
        self.path_log = os.path.join(os.getcwd(), mp4_path)
        print('视频合并完成!视频路径:{0}'.format(self.path_log))

2、m3u8视频下载方法

对于m3u8视频,首先需要输入m3u8文件对于的url,根据url获取m3u8文件,由于分片较多,所以这里可以采用多线程对m3u8内的ts多线程下载,也就是可以让每个线程负责一部分ts分片视频的下载,例如,本程序先获得m3u8文件的行数,然后将其平均分配成8个子文件,每个子文件的链接就作为一个线程进行下载,程序如下。

# 获取视频流切片m3u8的对应网址,下载视频切片就按照文件内的网址进行下载
    def get_m3u8(self):
        global response
        try:
            response = requests.get(url=self.url_m3u8, headers=self.headers)
        except Exception as e:
            print(e)
            exit()
        response_data = response.text
        if response.status_code == 200:
            with open('data.txt', 'w', encoding='utf-8') as fp:
                fp.write(response_data)
            print('链接获取完成!')
        else:
            print('网址解析出错!')
            exit()

    # 对文件的视频流地址进行提取并划分为8个文件,方便启用八线程下载
    def spl_file(self):
        # 对m3u8文件内容的行数和下载链接数进行统计,方便后续的文件分块和计算下载进度
        with open('data.txt', 'r', encoding='utf-8') as fp:
            while True:
                self.count_line += 1
                link = fp.readline()
                if not link:
                    break
                if link[:4] != "#EXT":
                    self.count += 1

        with open('data.txt', 'r', encoding='utf-8') as fp:
            flag, num = 0, 1
            while True:
                link = fp.readline()
                if not link:
                    break
                filename = 'filedir/' + 'thread' + str(num)
                with open(filename, 'a') as fp1:
                    fp1.write(link)
                flag += 1
                n = math.ceil(self.count_line / 8)  # 分为8个文件,方便8线程下载
                if flag == n:
                    flag = 0
                    num += 1

接下来,就是开启多线程对m3u8文件的ts链接进行下载,由于在对ts文件下载后需要对ts文件进行合并,所以ts的最终顺序需要保持和m3u8里的一致,那么对于多线程而言下载顺序不会从前到后保持一致,但是每一个线程内的下载的顺序是按照子文件的顺序进行的,所以这里利用线程号+下载时间进行标识就可以实现ts文件的顺序排序,程序如下。

# 根据获取的视频切片链接下载视频切片
    def get_video_m3u8(self, *args):
        filename, num = args[0], args[1]
        try:  # 处理m3u8内容少,不够8个线程时的异常
            with open(filename, 'r', encoding='utf-8') as fp:
                while True:
                    link = fp.readline()
                    if not link:
                        break
                    if link[:4] != "#EXT":  # 提取出下载链接的行
                        if link[:4] != 'hhtp':
                            re_link = self.pre_url + '/' + link[:len(link) - 1]  # 去掉换行符
                        else:
                            re_link = link[:len(link) - 1]
                        tmp = str(time.time()).split('.', 2)  # 以下载时间对视频片段进行排序
                        # 为了保证视频切片有序,需要依照每个线程的进行变换,如线程1,编号1+下载时间.ts,线程2,编号2+下载时间.ts
                        tsName = 'videoTS/' + str(num) + '-' + ''.join(tmp) + '.ts'
                        fp_video = open(tsName, 'wb')
                        response = requests.get(url=re_link, headers=self.headers)
                        response_video = response.content
                        if response.status_code != 200:
                            print('下载出错!')
                            exit()
                        fp_video.write(response_video)
                        fp_video.close()
        except Exception as e:
            print(e)

    """
    下载进度条,用来显示下载进度
    预先在spl_file()计算下载的总文件数:self.count
    不停的监控已下载到文件夹的文件数量:progress
    下载进度:p=progress / self.count
    """

    def progress_bar(self):
        start = time.perf_counter()
        while True:
            list_ts_path = os.listdir('videoTS')
            progress = len(list_ts_path)
            p = math.ceil((progress / self.count) * 100)
            dur = time.perf_counter() - start

            print("\\r", end="")
            print("下载进度: {}%: ".format(p), "▋" * (p // 2), "{:.2f}s".format(dur), end="")
            sys.stdout.flush()
            time.sleep(0.05)
            if p == 100:
                break
        print()

3、日志记录和重复下载提示

此外,程序还有日志记录方法和重复下载提示方法。日志记录文件记录了下载的时间,文件路径,和下载的url,每一行作为一次下载记录。重复下载提示,主要是在用户输入下载url的时候查看日志中是否已经存在下载记录,若存在下载记录并且文件目录的文件存在则提醒用户重复下载,若不存在则不提醒。程序如下所示。

# 下载日志,为了对每行进行编号,每次日志记录为一行,为了得到本行的行号,需要知道上一行的行号,+1操作后即是本行行号
    # 同时,为了节省读取文件时间,每次获取上一行的行号,需要对日志文件从后向前读取最后一行,这里利用seek()方法
    """
    seek()讲解:
    1、fileObject.seek(offset[, whence])
    2、offset -- 开始的偏移量,也就是代表需要移动偏移的字节数
    3、whence:可选,默认值为 0。给offset参数一个定义,表示要从哪个位置开始偏移;
    0代表从文件开头开始算起,1代表从当前位置开始算起,2代表从文件末尾算起。
    """

    def download_log(self):
        if not os.path.exists('log.txt'):
            with open('log.txt', 'a', encoding='utf-8') as fp1:
                fp1.write('##### download log ##### \\n')
                fp1.write('0: 时间\\t\\t路径\\t\\t网址\\n')

        try:
            with open('log.txt', 'rb') as fp2:  # 打开文件
                off = -10  # 设置偏移量
                while True:
                    if os.path.getsize('log.txt') == 0:
                        break

                    fp2.seek(off, 2)
                    lines = fp2.readlines()  # 读取文件指针范围内所有行
                    if len(lines) >= 2:  # 判断是否最后至少有两行,这样保证了最后一行是完整的
                        last_line = lines[-1]  # 取最后一行
                        break
                    # 如果off为5时得到的readlines只有一行内容,那么不能保证最后一行是完整的
                    # 所以off翻倍重新运行,直到readlines不止一行
                    off *= 2
                try:
                    self.num = str(last_line.decode())[:1]
                    if int(self.num) >= 100:
                        with open('log.txt', 'w', encoding='utf-8') as f:
                            f.write('##### download log ##### \\n')
                            f.write('0: 时间\\t\\t路径\\t\\t网址\\n')
                        self.num = 0
                except Exception as e:
                    pass
        except Exception as e:
            pass

        with open('log.txt', 'a', encoding='utf-8') as fp3:
            timestamp = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime())
            download_url = self.url_m3u8
            line_num = str(int(self.num) + 1) + ': '
            down_log = timestamp + '  ' + self.path_log + '  ' + download_url
            fp3.write(line_num + down_log + '\\n')

    # 验证视频是否重复下载
    def break_point(self):
        # 首先对链接视频是否已经存在做一下验证,若已经存在提醒用户,不存在则下载
        try:  # 处理首次使用没有日志文件的异常
            with open('log.txt', 'r', encoding='utf-8') as fp:
                fp.readline()
                fp.readline()
                while True:
                    log_info = fp.readline()
                    if not log_info:
                        break
                    list_log_info = re.split(r'[ ]', log_info[:len(log_info) - 1])
                    if self.url_m3u8 == list_log_info[-1]:
                        if os.path.exists(list_log_info[-3]):
                            print('视频存在:', list_log_info[-3])
                            choose = input('是否重新下载!(1确认/其它取消):')
                            if choose == '1':
                                pass
                            else:
                                exit()
                            break
                        else:
                            pass
        except Exception as e:
            pass

以上就是功能实现的主要程序介绍,完整程序请访问链接下载:https://github.com/Yang-Jianlin/Download_Video/blob/master/getVideo.py

以上是关于基于python爬虫下载网站在线视频的主要内容,如果未能解决你的问题,请参考以下文章

python爬虫学习笔记-M3U8流视频数据爬虫

一段完整的批量下载网站视频资源的python爬虫代码(附注解)

Python爬虫实战:利用scrapy,短短50行代码下载整站短视频

python爬虫实战:利用scrapy,短短50行代码下载整站短视频

《Python3网络爬虫实战案例(崔庆才著)》 中文版PDF下载,附源代码+视频教程

《Python3网络爬虫实战案例(崔庆才著)》 中文版PDF下载,附源代码+视频教程