FFMPEG Tips 如何提取码流的基本信息
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了FFMPEG Tips 如何提取码流的基本信息相关的知识,希望对你有一定的参考价值。
本文是我的《FFMPEG Tips》系列的第二篇文章,上篇文章《FFMPEG Tips (1) 如何打印日志》主要分享了如何利用 ffmpeg 库打印日志,而本文则主要分享一下如何利用 ffmpeg 库拿到码流的一些基本信息。
1. 码流中的哪些信息值得关注 ?
[ ] 是否包含:音频、视频
[ ] 码流的封装格式
[ ] 视频的编码格式
[ ] 音频的编码格式
[ ] 视频的分辨率、帧率、码率
[ ] 音频的采样率、位宽、通道数
[ ] 码流的总时长
[ ] 其他 Metadata 信息,如作者、日期等
2. 为什么需要拿到这些信息 ?
[ ] 码流的封装格式 -> 解封装
[ ] 音频、视频的编码格式 -> 初始化解码器
[ ] 视频的分辨率、帧率、码率 -> 视频的渲染
[ ] 音频的采样率、位宽、通道数 -> 初始化音频播放器
[ ] 码流的总时长 -> 展示、拖动
[ ] 其他 Metadata 信息 -> 展示
3. 这些关键信息都藏在哪 ?
这些关键的媒体信息,被称作 “metadata”,常常记录在整个码流的开头或者结尾处,例如:wav 格式主要由 wav header 头来记录音频的采样率、通道数、位宽等关键信息;mp4 格式,则存放在 moov box 结构中;而 FLV 格式则记录在 onMetaData 中等等。
我们可以看看 FLV 格式的 onMetaData 记录的信息包含有哪些内容:
当然,并不是所有的码流都能简单地通过 "metadata" 解析出这些媒体信息,有些码流还需要通过试读、解码等一系列复杂的操作判断之后,才能准确地判断真实的媒体信息,在 ffmpeg 中,函数 avformat_find_stream_info 就是干这事的。
4. 如何从 ffmpeg 取出这些信息 ?
(1)首先打开码流,并解析“metadata”
播放器要完成的第一件事,就是 “打开码流”,然后再“ 解析码流信息”,在 ffmpeg 中,这两步任务主要通过 `avformat_open_input` 和 `avformat_find_stream_info` 函数来完成,前者负责服务器的连接和码流头部信息的拉取,后者则主要负责媒体信息的探测和分析工作,这两步的示例代码如下:
AVFormatContext *ic = avformat_alloc_context(); if (avformat_open_input(&ic, url, NULL, NULL) < 0) { LOGE("could not open source %s", url); return -1; } if (avformat_find_stream_info(ic, NULL) < 0) { LOGE("could not find stream information"); return -1; }
当这两步执行成功后,媒体信息就已经成功保存在了 ffmpeg 相关的结构体成员变量中了,下一步我们看看如何拿到这些信息,为我所用。
(2)利用 ffmpeg 系统函数 dump 码流信息
ffmpeg 提供了一个函数直接帮助你打印出解析到的媒体信息,用法如下:
av_dump_format(ic, 0, ic->filename, 0);
例如,打印 “rtmp://live.hkstv.hk.lxdns.com/live/hks” 的结果如下:
不过,这样打印的信息还不够,我们希望能通过代码取到每一个关键的媒体信息。因此,下面我们看看如何直接从 AVFormatContext 上下文结构体中提取这些信息。
(3)手动从 ffmpeg 的上下文结构体中提取
首先,我们看看 AVFormatContext 变量有哪些跟媒体信息有关的成员变量:
- struct AVInputFormat *iformat; // 记录了封装格式信息 - unsigned int nb_streams; // 记录了该 URL 中包含有几路流 - AVStream **streams; // 一个结构体数组,每个对象记录了一路流的详细信息 - int64_t start_time; // 第一帧的时间戳 - int64_t duration; // 码流的总时长 - int bit_rate; // 码流的总码率,bps - AVDictionary *metadata; // 一些文件信息头,key/value 字符串
由此可见,封装格式、总时长和总码率可以拿到了。另外,由于 AVStream **streams 还详细记录了每一路流的媒体信息,可以进一步挖一挖,看看它有哪些成员变量。
我们通过 av_find_best_stream 函数来取出指向特定指定路数的 AVStream 对象,比如视频流的 AVStream 和 音频流的 AVStream 对象分别通过如下方法来取到:
int video_stream_idx = av_find_best_stream(ic, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0); AVStream video_stream = ic->streams[video_stream_idx]; int audio_stream_idx = av_find_best_stream(ic, AVMEDIA_TYPE_AUDIO, -1, -1, NULL, 0); AVStream audio_stream = ic->streams[audio_stream_idx];
拿到了 video_stream 和 audio_stream ,我们就可以把 AVStream 结构体中的信息提取出来了,其关键的成员变量如下:
- AVCodecContext *codec; // 记录了该码流的编码信息 - int64_t start_time; // 第一帧的时间戳 - int64_t duration; // 该码流的时长 - int64_t nb_frames; // 该码流的总帧数 - AVDictionary *metadata; // 一些文件信息头,key/value 字符串 - AVRational avg_frame_rate; // 平均帧率
到这里,我们拿到了平均的帧率,其中,AVCodecContext 详细记录了每一路流的具体的编码信息,我们再进一步挖一挖,看看 AVCodecContext 有哪些成员变量。
- const struct AVCodec *codec; // 编码的详细信息 - enum AVCodecID codec_id; // 编码类型 - int bit_rate; // 平均码率 /* video only */ - int width, height; // 图像的宽高尺寸,码流中不一定存在该信息,会由解码后覆盖 - enum AVPixelFormat pix_fmt; // 原始图像的格式,码流中不一定存在该信息,会由解码后覆盖 /* audio only */ - int sample_rate; // 音频的采样率 - int channels; // 音频的通道数 - enum AVSampleFormat sample_fmt; // 音频的格式,位宽 - int frame_size; // 每个音频帧的 sample 个数
原来我们最关心的编码类型、图片的宽高、音频的参数藏在这里了!经过层层解析后,我们想要的媒体信息,基本上在这些结构体变量中都找到了。
5. 代码示例
我们可以尝试手动把我们找到的媒体信息都打印出来看看,代码示例如下(你也可以到我的 Github 查看源代码: https://github.com/Jhuster/clib):
#include <libavutil/log.h> #define LOGD(format, ...) av_log(NULL, AV_LOG_DEBUG, format, ##__VA_ARGS__); int ff_dump_stream_info(char * url) { AVFormatContext *ic = avformat_alloc_context(); if (avformat_open_input(&ic, url, NULL, NULL) < 0) { LOGD("could not open source %s", url); return -1; } if (avformat_find_stream_info(ic, NULL) < 0) { LOGD("could not find stream information"); return -1; } LOGD("---------- dumping stream info ----------"); LOGD("input format: %s", ic->iformat->name); LOGD("nb_streams: %d", ic->nb_streams); int64_t start_time = ic->start_time / AV_TIME_BASE; LOGD("start_time: %lld", start_time); int64_t duration = ic->duration / AV_TIME_BASE; LOGD("duration: %lld s", duration); int video_stream_idx = av_find_best_stream(ic, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0); if (video_stream_idx >= 0) { AVStream *video_stream = ic->streams[video_stream_idx]; LOGD("video nb_frames: %lld", video_stream->nb_frames); LOGD("video codec_id: %d", video_stream->codec->codec_id); LOGD("video codec_name: %s", avcodec_get_name(video_stream->codec->codec_id)); LOGD("video width x height: %d x %d", video_stream->codec->width, video_stream->codec->height); LOGD("video pix_fmt: %d", video_stream->codec->pix_fmt); LOGD("video bitrate %lld kb/s", (int64_t) video_stream->codec->bit_rate / 1000); LOGD("video avg_frame_rate: %d fps", video_stream->avg_frame_rate.num/video_stream->avg_frame_rate.den); } int audio_stream_idx = av_find_best_stream(ic, AVMEDIA_TYPE_AUDIO, -1, -1, NULL, 0); if (audio_stream_idx >= 0) { AVStream *audio_stream = ic->streams[audio_stream_idx]; LOGD("audio codec_id: %d", audio_stream->codec->codec_id); LOGD("audio codec_name: %s", avcodec_get_name(audio_stream->codec->codec_id)); LOGD("audio sample_rate: %d", audio_stream->codec->sample_rate); LOGD("audio channels: %d", audio_stream->codec->channels); LOGD("audio sample_fmt: %d", audio_stream->codec->sample_fmt); LOGD("audio frame_size: %d", audio_stream->codec->frame_size); LOGD("audio nb_frames: %lld", audio_stream->nb_frames); LOGD("audio bitrate %lld kb/s", (int64_t) audio_stream->codec->bit_rate / 1000); } LOGD("---------- dumping stream info ----------"); avformat_close_input(&ic); }
6. 小结
关于如何使用 FFMPEG 如何提取码流的基本信息就介绍到这儿了,文章中有不清楚的地方欢迎留言或者来信 [email protected] 交流,关注我的新浪微博 @卢_俊 或者 微信公众号 @Jhuster 获取最新的文章和资讯。
本文出自 “Jhuster的专栏” 博客,请务必保留此出处http://ticktick.blog.51cto.com/823160/1869849
以上是关于FFMPEG Tips 如何提取码流的基本信息的主要内容,如果未能解决你的问题,请参考以下文章
视频知识点(20)- H264码流如何在SPS中获取宽高信息?