使用FFmpeg工具进行推流拉流截图变速转换,及常见问题处理

Posted 音视频开发老马

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用FFmpeg工具进行推流拉流截图变速转换,及常见问题处理相关的知识,希望对你有一定的参考价值。

下载安装

FFmpeg下载官网:FFmpeg ,这里提供了官网下载的windows环境 4.1.3版本:https://download.csdn.net/download/qq_43474959/12311422

下载后,配置环境变量,将bin文件地址加入到path中:

 

测试

在cmd中键入ffmpeg,观察是否显示相关信息

​语法规则

语法结构:ffmpeg 输入配置 -i 输入地址 输出配置 输出地址

推流

本地视频推流

ffmpeg -re -i 本地视频.格式 -f flv 推流地址

例如: ffmpeg -re -i fight.mp4 -f flv rtmp://192...........

本地摄像头推流

1.寻找可用摄像头

ffmpeg -list_devices true -f dshow -i dummy

此时列出了可用摄像头名称

2.测试摄像头

ffplay -f dshow -i video="摄像头名称" 此处的摄像头名称是由上条命令执行后查询得到的

例如:ffmpeg -f dshow -i video="USB Camera"

3.摄像头推流

ffmpeg -f dshow -i video="摄像头名称" -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -f flv 推流地址

实测低延迟低丢帧摄像头推流

ffmpeg -f dshow -i video="摄像头名称" -framerate 25 -bufsize 1000000k -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -acodec libfaac -f flv 推流地址

-framerate 25 :推流帧率

-preset:v ultrafast -tune:v zerolatency -acodec libfaac :最快推流配置

拉流

拉流播放视频

ffplay -i "拉流地址" -fflags nobuffer

nobuffer为实时播放

拉流保存视频

ffmpeg -i "拉流地址" "输出地址" ,如ffmpeg -i "https://xxx" "out.mp4

##更改拉流视频的分辨率

以320:240分辨率为例

ffplay -i "拉流地址" -vf scale=320:240

视频截取

是 ffmpeg -i "输入视频" -fflags nobuffer -t 60 -ss 0 "输出地址",代表截取输入视频从0秒到60秒的片段,保存到输出地址。

-ss n : 起始时间为第n秒

-t n : 总共截取的片段时长为n秒

定时截图(不断截图后更新一张图片)

ffmpeg -i “视频地址” -fflags nobuffer -update 1 -y -t 200 -ss 1 -r 1 -f image2 图片输出地址

-ss n : n秒后开始截图

-r n : 每秒截n帧

-t n : 截n秒

其他:-q:v :图片质量 -vframes:指定抽取的帧数

定时截图(每次截图产生产生一张图片,全部保存)

ffmpeg -i “视频地址” -r 1 -t 200 -ss 1 -f image2 输出地址和名称%d.jpg

例如:ffmpeg -i fight.mp4 -r 1 -t 200 -ss 1 -f image2 out%d.jpg

运行后会生成截图: out1.jpg out2.jpg out3.jpg …

格式转换

直接输入源文件,修改后缀作为输出文件即可,例如MP4转gif:

ffmpeg -i test.mp4 test.gif

视频处理

视频变速

视频转为两倍速:

ffmpeg -i input.mp4 -an -filter:v "setpts=0.5*PTS" output.mp4

更改速度:将0.5修改为想要的倍数的倒数

改变视频帧率

通过输出配置-r设置,例如将输入视频转换为10帧率的输出视频

ffmpeg -i input.mp4 -r 10 output.mp4

视频剪辑

例如,从第30秒开始,截一分钟:

ffmpeg -ss 00:00:30 -t 60 -i src.mp4 -codec copy out.mp4

视频旋转

上下翻转 ffmpeg -i input.mp4 -vf vflip out.mp4

左右翻转 ffmpeg -i input.mp4 -vf hflip out.mp4

顺时针90° ffmpeg -i input.mp4 -vf transpose=1 out.mp4

逆时针90° ffmpeg -i input.mp4 -vf transpose=2 out.mp4

视频尺寸裁剪

ffmpeg -i input.mp4 -vf crop=1280:720:0:120 out.mp4

crop后的参数,宽:高:起始x:起始y

常见问题:

1.推流时遇到红色丢帧警告 real-time buffer [video input] too full or near too full (101% of size: 3041280 [rtbufsize parameter])! frame dropped!

原因:编码太慢或者编码缓存区过小,解决方法:

降低推流质量,减小待推流视频的分辨率、帧率等,以上述的

 
 

ffmpeg -f dshow -i video="摄像头名称" -framerate 25 -bufsize 1000000k -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -acodec libfaac -f flv 推流地址

为例,此处加入设置分辨率选项:

 
 

ffmpeg -f dshow -i video="摄像头名称" -s 300*300 -framerate 15 -bufsize 1000000k -vcodec libx264 -preset:v ultrafast -tune:v zerolatency -acodec libfaac -f flv 推流地址

-s x*y 通过此句设置推流分辨率,或通过-framerate n 设置推流帧率

在推流时清理内存、减少cpu利用率,或更换计算能力更强、内存更大的设备

作者:FarryNiu

原文链接:https://blog.csdn.net/qq_43474959/article/details/105366800

FFmpeg进行推流的两种方法

      FFmpeg的推流一般有两种:

1.使用cmd进行推流,这种推流方式一般可用于简单的推流验证

     这里拿Mp4文件举个简单的例子:利用无人机拍摄了一份推流Mp4文件

ffmpeg -re -i /Users/jack/test.mp4 -vcodec libx264 -acodec aac -f flv rtmp://localhost:1935/rtmplive/home

       RTMP是Real Time Messaging Protocol(实时消息传输协议)的首字母缩写。是Adobe公司开发的一个基于TCP的应用层协议,也就是说,RTMP是和HTTP/HTTPS一样,是应用层的一个协议族。RTMP在TCP通道上一般传输的是flv 格式流。请注意,RTMP是网络传输协议,而flv则是视频的封装格式。flv封装格式设计出来的目的是为了用于网络传输使用的,因此RTMP+FLV可以说是”黄金搭档“。

RTMP协议包括:基本协议及RTMPT/RTMPS/RTMPE等多种变种。从视频协议学习:推流拉流都擅长的 RTMP了解到,RTMP协议家族有以下几个点挺有趣,读者们不妨看看:

  1. RTMP工作在TCP之上,默认使用端口1935,这个是基本形态;
  2. RTMPE在RTMP的基础上增加了加密功能;
  3. RTMPT封装在HTTP请求之上,可穿透防火墙;
  4. RTMPS类似RTMPT,增加了TLS/SSL的安全功能;
  5. RTMFP使用UDP进行传输的RTMP;

如何验证推流是否成功呢?可以使用VLC进行拉流测试。

 设置播放地址:

设置拉流地址:

2.使用代码推流,不废话了,直接上代码

extern "C"
{
#include "libavformat/avformat.h"
#include "libavutil/time.h"
}
#include <iostream>
using namespace std;
#pragma comment(lib,"avformat.lib")
#pragma comment(lib,"avutil.lib")
#pragma comment(lib,"avcodec.lib")
 
int XError(int errNum)
{
	char buf[1024] = { 0 };
	av_strerror(errNum, buf, sizeof(buf));
	cout << buf << endl;
	getchar();
	return -1;
}
static double r2d(AVRational r)
{
	return r.num == 0 || r.den == 0 ? 0. : (double)r.num / (double)r.den;
}
 
int main(int argc, char *argv[])
{
 
	const char *inUrl = "test.flv";
	const char *outUrl = "rtmp://192.168.32.129/live";
 
	//初始化所有封装和解封装 flv mp4 mov mp3
	av_register_all();
 
	//初始化网络库
	avformat_network_init();
 
	//
	//输入流 1 打开文件,解封装
	//输入封装上下文
	AVFormatContext *ictx = NULL;
 
	//打开文件,解封文件头
	int re = avformat_open_input(&ictx, inUrl, 0, 0);
	if (re != 0)
	{
		return XError(re);
	}
	cout << "open file " << inUrl << " Success." << endl;
 
	//获取音频视频流信息 ,h264 flv
	re = avformat_find_stream_info(ictx, 0);
	if (re != 0)
	{
		return XError(re);
	}
	av_dump_format(ictx, 0, inUrl, 0);
	//
 
 
	//
	//输出流 
 
	//创建输出流上下文
	AVFormatContext *octx = NULL;
	re = avformat_alloc_output_context2(&octx, 0, "flv", outUrl);
	if (!octx)
	{
		return XError(re);
	}
	cout << "octx create success!" << endl;
 
	//配置输出流
	//遍历输入的AVStream
	for (int i = 0; i < ictx->nb_streams; i++)
	{
		//创建输出流
		AVCodec *codec = avcodec_find_decoder(ictx->streams[i]->codecpar->codec_id);
		AVStream *out = avformat_new_stream(octx, codec);
		
		//AVStream *out = avformat_new_stream(octx, );
		if (!out)
		{
			return XError(0);
		}
		//复制配置信息,同于MP4
		//re = avcodec_copy_context(out->codec, ictx->streams[i]->codec);
		re = avcodec_parameters_copy(out->codecpar, ictx->streams[i]->codecpar);
		//out->codec->codec_tag = 0;
	}
	av_dump_format(octx, 0, outUrl, 1);
	//
 
 
	//rtmp推流
 
	//打开io
	re = avio_open(&octx->pb, outUrl, AVIO_FLAG_WRITE);
	if (!octx->pb)
	{
		return XError(re);
	}
 
	//写入头信息
	re = avformat_write_header(octx, 0);
	if (re < 0)
	{
		return XError(re);
	}
	cout << "avformat_write_header " << re << endl;
	AVPacket pkt;
	long long startTime = av_gettime();
	for (;;)
	{
		re = av_read_frame(ictx, &pkt);
		if (re != 0)
		{
			break;
		}
		cout << pkt.pts << " " << flush;
		//计算转换pts dts
		AVRational itime = ictx->streams[pkt.stream_index]->time_base;
		AVRational otime = octx->streams[pkt.stream_index]->time_base;
		pkt.pts = av_rescale_q_rnd(pkt.pts, itime, otime, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_NEAR_INF));
		pkt.dts = av_rescale_q_rnd(pkt.pts, itime, otime, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_NEAR_INF));
		pkt.duration = av_rescale_q_rnd(pkt.duration, itime, otime, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_NEAR_INF));
		pkt.pos = -1;
 
		//视频帧推送速度
		if (ictx->streams[pkt.stream_index]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)
		{
			AVRational tb = ictx->streams[pkt.stream_index]->time_base;
			//已经过去的时间
			long long now = av_gettime() - startTime;
			long long dts = 0;
			dts = pkt.dts * (1000 * 1000 * r2d(tb));
			if (dts > now)
				av_usleep(dts - now);
		}
 
		re = av_interleaved_write_frame(octx, &pkt);
		if (re < 0)
		{
			return XError(re);
		}
	}
 
	cout << "file to rtmp test" << endl;
	getchar();
	return 0;
}

 

在推流开始时候几下时间start(1970至今的时间,单位为微妙 微秒:百万分之一秒),然后解封转后每一帧,得到pts 和 dts,然后将packet 的pts 和 dts转化为outAvformatContext 的,并且如果dts 转化为与start一样时间单位时候,如果大于 now - start ,就休眠 dts-(now - start)

这里用到了2个ffmpeg的函数:

av_strerror 输出错误信息
 

int XError(int errNum)
{
	char buf[1024] = { 0 };
	av_strerror(errNum, buf, sizeof(buf));
	cout << buf << endl;
	getchar();
	return -1;
}
  • av_gettime1970至今的时间,单位为微妙 微秒:百万分之一秒
  • av_rescale_q_rnd 将输入的pts格式转化为输出上下文的格式
int64_t av_rescale_rnd(int64_t a, int64_t b, int64_t c, enum AVRounding rnd)

最后一个参数转换的方式:

AV_ROUND_ZERO     = 0, // Round toward zero.      趋近于0  
AV_ROUND_INF      = 1, // Round away from zero.   趋远于0  
AV_ROUND_DOWN     = 2, // Round toward -infinity. 趋于更小的整数  
AV_ROUND_UP       = 3, // Round toward +infinity. 趋于更大的整数  
AV_ROUND_NEAR_INF = 5, // Round to nearest and halfway cases away from zero.  
                       //                         四舍五入,小于0.5取值趋向0,大于0.5取值趋远于0  

 

以上是关于使用FFmpeg工具进行推流拉流截图变速转换,及常见问题处理的主要内容,如果未能解决你的问题,请参考以下文章

FFmpeg进行推流的两种方法

nginx + nginx-rtmp-module + springboot 搭建直播流服务器实现推流拉流实时直播功能

FFmpeg常用推流命令

如何通过ffmpeg 实现实时推流和拉流保存的功能

C# FFmpeg推流Vlc.DotNet拉流优化参数

ffmpeg推流及拉流