音视频开发之旅(61)- 分析FFmpeg (解码部分的)常用结构体
Posted 音视频开发之旅
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了音视频开发之旅(61)- 分析FFmpeg (解码部分的)常用结构体相关的知识,希望对你有一定的参考价值。
上一篇我们分析了解封装部分的常用结构体,这篇我们来学习分析解码部分的常用结构体。
目录
- 断点分析ffplay解码流程及关键结构体
- (解码部分)常用结构体以及之间的关系分析
- 资料
- 收获
一、断点分析ffplay解码流程及关键结构体
还是从read_thread
进行分析
stream_component_open(is, st_index[AVMEDIA_TYPE_AUDIO]);
ret = stream_component_open(is, st_index[AVMEDIA_TYPE_VIDEO]);
stream_component_open 打开指定的流
static int stream_component_open(VideoState *is, int stream_index)
AVFormatContext *ic = is->ic;
AVCodecContext *avctx;
const AVCodec *codec;
其中的关键函数如下
avctx = avcodec_alloc_context3(NULL);
int avcodec_parameters_to_context(AVCodecContext *codec,
const AVCodecParameters *par)
codec = avcodec_find_decoder(avctx->codec_id);
codec = avcodec_find_decoder_by_name(forced_codec_name);
//打开codec
avcodec_open2(avctx, codec, &opts)
//音频解码
decoder_init(&is->auddec, avctx, &is->audioq, is->continue_read_thread)
decoder_start(&is->auddec, audio_thread, "audio_decoder", is)
//视频解码
decoder_init(&is->viddec, avctx, &is->videoq, is->continue_read_thread)
decoder_start(&is->viddec, video_thread, "video_decoder", is)
avcodec_free_context(&avctx);
涉及到结构体:AVFormatContext、AVCodecContext、AVCodec
avcodec_parameters_to_context
int avcodec_parameters_to_context(AVCodecContext *codec,
const AVCodecParameters *par)
涉及到结构体:AVCodecContext、AVCodecParameters
avcodec_find_decoder通过codecid查找解码器
const AVCodec *avcodec_find_decoder(enum AVCodecID id)
涉及到结构体:AVCodec
avcodec_open2
int avcodec_open2(AVCodecContext *avctx, const AVCodec *codec, AVDictionary **options)
涉及到结构体:AVCodecContext、AVCodec
解码线程
static int audio_thread(void *arg)
static int video_thread(void *arg)
解码线程中以AVFrame作为解压缩后的结构体
涉及到结构体:AVFrame
然后分别开启音频和视频的解码线程开始解码。我们可以看到涉及的主要结构体有AVCodecContext 、AVCodecParameters 、AVCodec 、AVFrame
作为解码的输入AVPacket(存储压缩编码数据相关信息的结构体)以及AVStream(每个AVStream存储一个视频/音频流的相关数据;是解封装器分离出来的流对象)我们上一篇已经介绍过,下面我们来主要分析解码相关的几个结构体AVCodecContext 、AVCodec 、AVFrame
二、(解码部分)常用结构体以及之间的关系分析
2.1 常用结构体以及之间的关系(再引用一次,雷神总结梳理的太好了)
FFMPEG中结构体很多。最关键的结构体可以分成以下几类:
a) 解协议(http,rtsp,rtmp,mms)
AVIOContext,URLProtocol,URLContext主要存储视音频使用的协议的类型以及状态。URLProtocol存储输入视音频使用的封装格式。每种协议都对应一个URLProtocol结构。(注意:FFMPEG中文件也被当做一种协议“file”)
b) 解封装(flv,avi,rmvb,mp4)
AVFormatContext主要存储视音频封装格式中包含的信息;AVInputFormat存储输入视音频使用的封装格式。每种视音频封装格式都对应一个AVInputFormat 结构。
c) 解码(h264,mpeg2,aac,mp3)
每个AVStream存储一个视频/音频流的相关数据;每个AVStream对应一个AVCodecContext,存储该视频/音频流使用解码方式的相关数据;每个AVCodecContext中对应一个AVCodec,包含该视频/音频对应的解码器。每种解码器都对应一个AVCodec结构。
d) 存数据
视频的话,每个结构一般是存一帧;音频可能有好几帧
解码前数据:AVPacket
解码后数据:AVFrame
引用自: https://blog.csdn.net/leixiaohua1020/article/details/11693997
他们之间的关系如下:
2.2 AVCodecContext
AVCodecContext是一个描述解码器上下文的数据结构,包含了很多编码器需要的参数信息。
该结构体定义位于libavcodec/AVcodec.h中,主要变量如下:
enum AVMediaType codec_type; // 该枚举定义在libavutil/Avutil.h中,编码的类型,音频、视频、字母等
const struct AVCodec *codec;//采用的解码器AVCodec,下面单独分析
enum AVCodecID codec_id; // 该枚举定义在libavcodec/Codec_id.h中,定了一了所有的编解码器id
void *priv_data;
struct AVCodecInternal *internal;//内部使用的上下文环境
void *opaque;
int64_t bit_rate;//平均码率
uint8_t *extradata; int extradata_size:针对特定编码器包含的附加信息(例如对于H.264解码器来说,存储SPS,PPS等)
AVRational time_base;//时间基,根据该参数,可以把PTS转化为实际的时间(单位为秒s)
int width, height;//仅视频类型用
int gop_size;//关键帧间隔
int max_b_frames;//最大b帧数量
int has_b_frames;//是否有b帧,关系到视频的压缩比率,一般b帧越多压缩比越大
int slice_count;//片的总和,关于slice相关,可以[音视频开发之旅(56) -H264/AVC基本结构](https://mp.weixin.qq.com/s?__biz=MzU5NjkxMjE5Mg==&mid=2247484355&idx=1&sn=538378561c16b640a4ea42bc1f354044&chksm=fe5a32ecc92dbbfa1d6a2e83f22aece727badb99966b6e621322ed8bf6b0cd8f0b2d1c262013&token=778944351&lang=zh_CN#rd)
AVRational sample_aspect_ratio;//采样率
/* audio only */
int sample_rate; ///< samples per second 音频采样率
int channels; ///< number of audio channels 通道数
enum AVSampleFormat sample_fmt; ///< sample format 采样格式,定义在libavutil/Samplefmt.h中
enum AVColorSpace colorspace;//颜色空间,定义在libavutil/Pixfmt.h
AVRational framerate;//帧率
enum AVPixelFormat sw_pix_fmt;//像素格式,如yuv420pdeng ,定义在libavutil/Pixfmt.h 如果设置不对导致解码器无法正常解码会出现花屏的情况。
这个结构体涉及的变量很多,并且很多是和编码相关,解码用的的其实并不算太多。
2.3 AVCodec
AVCodec是存储编码器信息的结构体。
该结构体定义位于libavcodec/Codec.h中,主要变量如下:
const char *name;//codec的名称
enum AVMediaType type;//codec的类型,AVCodecContext中已经介绍
enum AVCodecID id;//codec的id,AVCodecContext中已经介绍
int capabilities;//编解码的能力,见 AV_CODEC_CAP_
const AVRational *supported_framerates;//支持的帧率
const enum AVPixelFormat *pix_fmts;//支持的像素格式
const int *supported_samplerates; //支持的音频采样率
const enum AVSampleFormat *sample_fmts;//支持的采样格式
下面是一些函数指针
int (*init)(struct AVCodecContext *);//初始化
int (*encode2)(struct AVCodecContext *avctx, struct AVPacket *avpkt,const struct AVFrame *frame, int *got_packet_ptr);//编码
int (*decode)(struct AVCodecContext *avctx, void *outdata,
int *got_frame_ptr, struct AVPacket *avpkt);
int (*close)(struct AVCodecContext *);//解码
int (*receive_packet)(struct AVCodecContext *avctx, struct AVPacket *avpkt);//接收packet数据
int (*receive_frame)(struct AVCodecContext *avctx, struct AVFrame *frame);//接收frame数据
void (*flush)(struct AVCodecContext *);//刷新缓冲区
2.4 AVFrame
AVFrame一般用于存储原始数据(即非压缩数据,例如对于视频而言YUV、RGB,对于音频而言 PCM),此外还包含了一些相关的信息。比如说,解码的时候存储了宏块类型表,QP表,运动矢量表等数据。编码的时候也存储了相关的数据。
该结构体定义位于libavutil/Frame.h中,主要变量如下:
#define AV_NUM_DATA_POINTERS 8
uint8_t *data[AV_NUM_DATA_POINTERS];//对于planar格式的数据(例如YUV420P),则会分开成data[0],data[1],data[2]...(YUV420P中data[0]存Y,data[1]存U,data[2]存V)
int width, height;//视频宽高
int nb_samples;//每个信道音频采样点的个数
int format;//帧的像素格式
int key_frame;//1 -> keyframe, 0-> not
enum AVPictureType pict_type;//定义在libavutil/AVutil.h中,该帧的类型,I、P、B等
AVRational sample_aspect_ratio;//宽高比(16:9,4:3...)FFMPEG中用AVRational表达分数:
int64_t pts;//显示时间戳
int64_t pkt_dts;//从packet复制的PTS
int quality;
void *opaque;
int coded_picture_number;//编码帧序号
int display_picture_number;//显示帧序号
int8_t *qscale_table;//QP表 QP表指向一块内存,里面存储的是每个宏块的QP值。宏块的标号是从左往右,一行一行的来的。每个宏块对应1个QP。
uint8_t *mbskip_table;//跳过宏块表
int16_t (*motion_val[2])[2];//运动矢量表
int8_t *ref_index[2];//运动估计参考帧列表
int interlaced_frame;//交错帧,表示图像内容是交错的,即是否是隔行扫描
int sample_rate;//音频采样率
uint8_t motion_subsample_log2;//一个宏块中的运动矢量采样个数,取log2的.1个运动矢量所能代表的画面大小(用宽或者高表示,单位是像素),注意,这里取了log2。
三、资料
- 《android音视频开发》-第八章
- FFMPEG中最关键的结构体之间的关系
- FFMPEG结构体分析:AVCodecContext
- FFMPEG结构体分析:AVCodec
- FFMPEG结构体分析:AVFrame
- FFMPEG 实现 YUV,RGB各种图像原始数据之间的转换(swscale)
四、收获
通过本篇的学习实践,收获如下:
- 断点分析解码的流程加深理解
- 重温ffmpeg重要结构体之间的关系
- 了解了解码相关的结构体 AVCodecContext、AVCodec、AVFrame. 其中设置到很多编码协议相关知识,需要系统性的在进行学习(X265)
感谢你的阅读
下一篇我们学习知识fflay关键结构体的最后一篇,解协议相关结构体,欢迎关注公众号“音视频开发之旅”,一起学习成长。
欢迎交流
以上是关于音视频开发之旅(61)- 分析FFmpeg (解码部分的)常用结构体的主要内容,如果未能解决你的问题,请参考以下文章
音视频开发之旅(61)- 分析FFmpeg (解码部分的)常用结构体
音视频开发之旅(60) -调试分析FFmpeg (解封装部分的)常用结构体
音视频开发之旅(60) -调试分析FFmpeg (解封装部分的)常用结构体
音视频开发之旅(60) -调试分析FFmpeg (解封装部分的)常用结构体