ffmpeg rtp传输使用

Posted qianbo_insist

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ffmpeg rtp传输使用相关的知识,希望对你有一定的参考价值。

1 ffmpeg rtp

   ffmpeg估计已经成为多媒体 流媒体开发的必备工具,编解码不可缺少的伙伴,rtp协议本身是非常优良的协议,刚进入协议编程的伙伴可以使用ffmpeg的rtp编程来入门,抓包,这里是示例,同时讲一下原理。

2 简单使用

2.1 包含头文件

别忘了加上extern “C”,ffmpeg是纯c程序

extern "C" {
#include <libavformat/avformat.h>
#include <libavcodec/avcodec.h>
}

2.2 命令行

看指令
//推RTP
//ffmpeg - re - i cw.ts - vcodec copy - acodec copy - f rtp_mpegts rtp://238.123.46.66:8001 推rtp
//推UDP
//ffmpeg - re - i cw.ts - vcodec copy - acodec copy - f mpegts udp://238.123.46.66:8001 推udp

2.3 查找编码器

if (v != NULL)
{
	//查找编码器
	AVCodec *cv = avcodec_find_encoder(AV_CODEC_ID_H264);
	//创建流
	m_st_v = avformat_new_stream(m_fmtctx, cv);
	//从context拷贝codecpar
	avcodec_parameters_from_context(m_st_v->codecpar, v);
}

2.4 设置参数

   RTP 协议中,最需要设置的是payload和ssrc,这是唯一指定一路流的标识,除了源端口和源IP,ssrc是真正指明自己是哪一路的,DHCP或者移动网络中,IP地址和端口号可能会变化,不能使用这种方式来指明唯一的一路流,实际上,应该使用信令服务器配合sdp协议来获取ssrc和其他参数,sip协议和rtsp协议等都是信令的作用。
   为什么要自己设置ssrc和payloadtype?你可以根据服务器返回来设定这些值,尤其是经过解析sdp协议来拿到payload,不然仅仅是一个值,怎么可能知道到底是什么编码,所以sdp协议名字叫做会话描述协议。

	av_opt_set_int(m_fmtctx->priv_data, "payload_type", 96, 0);
	av_opt_set_int(m_fmtctx->priv_data, "ssrc", ssrc, 0);

2.4 发送

   调整时间戳发送,pts和dts分别意义为呈现时间戳 – present 和解码时间戳–decode,实际上,这个时间戳不要较真,不用拿着一知半解的函数算来算去,记住这个时间戳就是真实的时间而已,假定有一个静音检测,一段时间没有声音,千万别按照很多例子,依然按照死的公式计算时间

current = 当前时间 time[n] 表示第n帧时间
time[1] = 第一帧时间
time[2] = current - time[1]

   其实pts、dts可以放置真正的当前时间,本来就是指明当前帧的时间的,播放器应该拿到第一帧关键时间戳后计算后面相对时间就行。就这么简单 ,不要被眼花缭乱的时间计算公式给蒙了,但是这里要说明RTP时间如视频发送出去实际上是要使用90000基数的,为什么要用这个基数呢?因为计算帧数涉及到整除的问题,这个90000是恰到好处而已。

	void send(AVPacket * pkt)
	{
		//写文件头
		pkt->stream_index = m_st_v->index;
		pkt->pts = av_rescale_q(pkt->pts, m_p_v->time_base, m_st_v->time_base);
		pkt->dts = av_rescale_q(pkt->dts, m_p_v->time_base, m_st_v->time_base);
		pkt->pos = -1;
		av_interleaved_write_frame(m_fmtctx, pkt);
		av_packet_free(&pkt);
	}

3 完整class,实践出真知

#pragma once
#if 1
extern "C" {
#include <libavformat/avformat.h>
#include <libavcodec/avcodec.h>
}
#define HASH_PRIME_MIDDLE 10001531
static int hash_add(const char* key, int prime)
{
	int hash, i;
	int len = (int)strlen(key);
	for (hash = len, i = 0; i < len; i++)
		hash += key[i];
	return (hash % prime);
}
class RTP_Wrapper
{
	AVFormatContext * m_fmtctx = NULL;
	AVStream * m_st_v = NULL;
	AVStream * m_st_a = NULL;
	AVCodecContext *m_p_v = NULL;
	AVCodecContext *m_p_a = NULL;
public:
	int init_rtp(AVCodecContext *v, AVCodecContext *a, const char * url)
	{
		int ret = -1;
		m_p_v = v;
		m_p_a = a;
		char host[128];
		int port = 0;
		char path[128];
		sscanf(url, "rtp://%[^:/]:%d/%s", host, &port, path);
		if (port == 0)
		{
			sscanf(url, "rtp://%[^:/]/%s", host, path);
			port = 6000;
		}
		int ssrc = hash_add(path, HASH_PRIME_MIDDLE);

		AVOutputFormat* fmt = av_guess_format("rtp", NULL, NULL);
		//AVOutputFormat* fmt = av_guess_format("rtp_mpegts", NULL, NULL);
		char rtp[128];
		sprintf(rtp, "rtp://%s:%d", host, port);
		ret = avformat_alloc_output_context2(&m_fmtctx, fmt, fmt->name,
			rtp);
		AVDictionary *options = NULL;
		av_dict_set(&options, "buffer_size", "102400", 0); //设置缓存大小,1080p可将值调大
		av_dict_set(&options, "send_buffer_size", "102400", 0); //设置缓存大小,1080p可将值调大
		av_dict_set(&options, "pkt_size", "1400", 0);
		//96 h264
		av_opt_set_int(m_fmtctx->priv_data, "payload_type", 96, 0);
		av_opt_set_int(m_fmtctx->priv_data, "ssrc", ssrc, 0);
		avio_open2(&m_fmtctx->pb, rtp,
			AVIO_FLAG_WRITE, NULL, &options);
		//初始化AVStream
		if (v != NULL)
		{
			//查找编码器
			AVCodec *cv = avcodec_find_encoder(AV_CODEC_ID_H264);
			m_st_v = avformat_new_stream(m_fmtctx, cv);
			avcodec_parameters_from_context(m_st_v->codecpar, v);
		}
		if (a != NULL)
		{
			AVCodec *ca = avcodec_find_encoder(AV_CODEC_ID_AAC);
			m_st_a = avformat_new_stream(m_fmtctx, ca);
			avcodec_parameters_from_context(m_st_a->codecpar, a);
		}
		avformat_write_header(m_fmtctx, NULL);
		char sdp[256];
		av_sdp_create(&m_fmtctx, 1, sdp, sizeof(sdp));
		//FILE * fp = fopen("c:\\\\test.sdp", "wb");
		//fwrite(sdp, 1, strlen(sdp), fp);
		//fclose(fp);
		printf("%s\\n", sdp);
		return 0;
	}
	//设置AVCodecContext编码参数    
	void send(AVPacket * pkt)
	{
		//写文件头
		pkt->stream_index = m_st_v->index;
		pkt->pts = av_rescale_q(pkt->pts, m_p_v->time_base, m_st_v->time_base);
		pkt->dts = av_rescale_q(pkt->dts, m_p_v->time_base, m_st_v->time_base);
		pkt->pos = -1;
		av_interleaved_write_frame(m_fmtctx, pkt);
		av_packet_free(&pkt);

	}
	void UnInit()
	{
		//销毁资源
		if (!(m_fmtctx->oformat->flags & AVFMT_NOFILE))
			avio_close(m_fmtctx->pb);
		avformat_free_context(m_fmtctx);
	}
};
#endif

后面会继续写手动发送和接收rtp包

以上是关于ffmpeg rtp传输使用的主要内容,如果未能解决你的问题,请参考以下文章

ffmpeg rtp传输使用

如何使用FFMPEG+H264实现RTP传输数据

将作品音频 rtp 流式传输到 android 设备

c++ ffmpeg如何获取RTP包中的Seq和timestamp

ffmpeg基础四:RTP协议

接收 RTP 流 - AudioStream, AudioGroup