FFmpeg 跳过渲染帧
Posted
技术标签:
【中文标题】FFmpeg 跳过渲染帧【英文标题】:FFmpeg skips rendering frames 【发布时间】:2019-01-13 13:50:02 【问题描述】:当我从视频中提取帧时,我注意到ffmpeg
不会完成渲染某些图像。问题最终是两个jpeg
图像之间的字节“填充”。如果我的缓冲区大小是4096
,并且如果在该缓冲区中位于上一个图像和下一个图像的字节,并且如果它们没有被任意数量的字节分隔,那么下一个图像将无法正确呈现。这是为什么呢?
-i path -f image2pipe -c:v mjpeg -q:v 2 -vf fps=25 pipe:1
渲染帧:
代码示例:
public void ExtractFrames()
string FFmpegPath = "Path...";
string Arguments = $"-i VideoPath -f image2pipe -c:v mjpeg -q:v 2 -vf fps=25/1 pipe:1";
using (Process cmd = GetProcess(FFmpegPath, Arguments))
cmd.Start();
FileStream fStream = cmd.StandardOutput.BaseStream as FileStream;
bool Add = false;
int i = 0, n = 0, BufferSize = 4096;
byte[] buffer = new byte[BufferSize + 1];
MemoryStream mStream = new MemoryStream();
while (true)
if (i.Equals(BufferSize))
i = 0;
buffer[0] = buffer[BufferSize];
if (fStream.Read(buffer, 1, BufferSize) == 0)
break;
if (buffer[i].Equals(255) && buffer[i + 1].Equals(216))
Add = true;
if (buffer[i].Equals(255) && buffer[i + 1].Equals(217))
n++;
Add = false;
mStream.Write(new byte[] 255, 217 , 0, 2);
File.WriteAllBytes($@"C:\Path...\n.jpg", mStream.ToArray());
mStream = new MemoryStream();
if (Add)
mStream.WriteByte(buffer[i]);
i++;
cmd.WaitForExit();
cmd.Close();
private Process GetProcess(string FileName, string Arguments)
return new Process
StartInfo = new ProcessStartInfo
FileName = FileName,
Arguments = Arguments,
UseShellExecute = false,
RedirectStandardOutput = true,
CreateNoWindow = false,
;
应使用长度为 60 秒或更长的视频样本 (> 480p) 进行测试。
【问题讨论】:
写入文件时会出现这种情况吗?-i path -f image2 -c:v mjpeg -q:v 2 -vf fps=25 out%d.jpg
和/或-i path -f image2pipe -c:v mjpeg -q:v 2 -vf fps=25 pipe:1 | ffmpeg -f image2pipe -i - -c copy piped%d.jpg
是否会发生这种情况?
【参考方案1】:
如果文件被存储,那么只告诉 FFmpeg 将该视频文件转换为 Jpeg 可能会更容易。
(1) 读取视频文件并输出帧 Jpeg(不涉及管道或内存/文件流):
string str_MyProg = "C:/FFmpeg/bin/ffmpeg.exe";
string VideoPath = "C:/someFolder/test_vid.mp4";
string save_folder = "C:/someOutputFolder/";
//# Setup the arguments to directly output a sequence of images (frames)
string str_CommandArgs = "-i " + VideoPath + " -vf fps=25/1 " + save_folder + "n_%03d.jpg"; //the n_%03d replaces "n++" count
System.Diagnostics.ProcessStartInfo cmd_StartInfo = new System.Diagnostics.ProcessStartInfo(str_MyProg, str_CommandArgs);
cmd_StartInfo.RedirectStandardError = false; //set false
cmd_StartInfo.RedirectStandardOutput = false; //set false
cmd_StartInfo.UseShellExecute = true; //set true
cmd_StartInfo.CreateNoWindow = true; //don't need the black window
//Create a process, assign its ProcessStartInfo and start it
System.Diagnostics.Process cmd = new System.Diagnostics.Process();
cmd.StartInfo = cmd_StartInfo;
cmd.Start();
//# Started process. Check output folder for images...
(2)管道方法:
当使用管道时,FFmpeg 将像广播一样流回输出。如果到达最后一个视频帧,则相同的最后一帧“图像”将无限重复。您必须手动告诉 FFmpeg 何时停止向您的应用发送数据(在这种情况下没有“退出”代码)。
代码中的这一行将指定在停止之前如何提取任何帧:
int frames_expected_Total = 0; //is... (frame_rate x Duration) = total expected frames
您可以将限制计算为:input-Duration / output-FPS
或output-FPS * input-Duration
。
示例:视频时长为 4.88 秒,因此此视频限制为 25 * 4.88 =
122 帧。
“如果我的缓冲区大小是 4096...那么下一个图像将无法正确呈现。 为什么会这样?”
由于缓冲区太小无法容纳完整的图像...
缓冲区大小公式为:
int BufferSize = ( video_Width * video_Height );
因为最终压缩的 jpeg 会小于这个数量,所以它保证了 BufferSize
可以容纳任何完整的帧而不会出错。出于兴趣,您从哪里获得 4096 号码?标准输出通常给出的最大数据包大小为 32kb(32768 字节)。
解决方案(已测试): 这是解决“故障”图像问题的完整工作示例,请检查代码 cmets...
using System;
using System.IO;
using System.Net;
using System.Drawing;
using System.Diagnostics;
using System.Collections.Generic;
namespace FFmpeg_Vid_to_JPEG //replace with your own project "namespace"
class Program
public static void Main(string[] args)
//# testing the Extract function...
ExtractFrames();
public static void ExtractFrames()
//# define paths for PROCESS
string FFmpegPath = "C:/FFmpeg/bin/ffmpeg.exe";
string VideoPath = "C:/someFolder/test_vid.mp4";
//# FFmpeg arguments for PROCESS
string str_myCommandArgs = "-i " + VideoPath + " -f image2pipe -c:v mjpeg -q:v 2 -vf fps=25/1 pipe:1";
//# define paths for SAVE folder & filename
string save_folder = "C:/someOutputFolder/";
string save_filename = ""; //update name later on, during SAVE commands
MemoryStream mStream = new MemoryStream(); //create once, recycle same for each frame
////// # also create these extra variables...
bool got_current_JPG_End = false; //flag to begin extraction of image bytes within stream
int pos_in_Buffer = 0; //pos in buffer(when checking for Jpeg Start/End bytes)
int this_jpeg_len = 0; // holds bytes of single jpeg image to save... correct length avoids cropping effect
int pos_jpeg_start = 0; int pos_jpeg_end = 0; //marks the start/end pos of one image within total stream
int jpeg_count = 0; //count of exported Jpeg files (replaces the "n++" count)
int frames_expected_Total = 0; //number of frames to get before stopping
//# use input video's width x height as buffer size //eg: size 921600 = 1280 W x 720H
int BufferSize = 921600;
byte[] buffer = new byte[BufferSize + 1];
// Create a process, assign its ProcessStartInfo and start it
ProcessStartInfo cmd_StartInfo = new ProcessStartInfo(FFmpegPath, str_myCommandArgs);
cmd_StartInfo.RedirectStandardError = true;
cmd_StartInfo.RedirectStandardOutput = true; //set true to redirect the process stdout to the Process.StandardOutput StreamReader
cmd_StartInfo.UseShellExecute = false;
cmd_StartInfo.CreateNoWindow = true; //do not create the black window
Process cmd = new System.Diagnostics.Process();
cmd.StartInfo = cmd_StartInfo;
cmd.Start();
if (cmd.Start())
//# holds FFmpeg output bytes stream...
var ffmpeg_Output = cmd.StandardOutput.BaseStream; //replaces: fStream = cmd.StandardOutput.BaseStream as FileStream;
cmd.BeginErrorReadLine(); //# begin receiving FFmpeg output bytes stream
//# get (read) first two bytes in stream, so can check for Jpegs' SOI (xFF xD8)
//# each "Read" auto moves forward by read "amount"...
ffmpeg_Output.Read(buffer, 0, 1);
ffmpeg_Output.Read(buffer, 1, 1);
pos_in_Buffer = this_jpeg_len = 2; //update reading pos
//# we know first jpeg's SOI is always at buffer pos: [0] and [1]
pos_jpeg_start = 0; got_current_JPG_End = false;
//# testing amount... Duration 4.88 sec, FPS 25 --> (25 x 4.88) = 122 frames
frames_expected_Total = 122; //122; //number of Jpegs to get before stopping.
while(true)
//# For Pipe video you must exit stream manually
if ( jpeg_count == (frames_expected_Total + 1) )
cmd.Close(); cmd.Dispose(); //exit the process
break; //exit if got required number of frame Jpegs
//# otherwise read as usual
ffmpeg_Output.Read(buffer, pos_in_Buffer, 1);
this_jpeg_len +=1; //add 1 to expected jpeg bytes length
//# find JPEG start (SOI is bytes 0xFF 0xD8)
if ( (buffer[pos_in_Buffer] == 0xD8) && (buffer[pos_in_Buffer-1] == 0xFF) )
if (got_current_JPG_End == true)
pos_jpeg_start = (pos_in_Buffer-1);
got_current_JPG_End = false;
//# find JPEG ending (EOI is bytes 0xFF 0xD9) then SAVE FILE
if ( (buffer[pos_in_Buffer] == 0xD9) && (buffer[pos_in_Buffer-1] == 0xFF) )
if (got_current_JPG_End == false)
pos_jpeg_end = pos_in_Buffer; got_current_JPG_End = true;
//# update saved filename
save_filename = save_folder + "n_" + (jpeg_count).ToString() + ".jpg";
try
//# If the Jpeg save folder doesn't exist, create it.
if ( !Directory.Exists( save_folder ) ) Directory.CreateDirectory( save_folder );
catch (Exception)
//# handle any folder create errors here.
mStream.Write(buffer, pos_jpeg_start, this_jpeg_len); //
//# save to disk...
File.WriteAllBytes(@save_filename, mStream.ToArray());
//recycle MemoryStream, avoids creating multiple = new MemoryStream();
mStream.SetLength(0); mStream.Position = 0;
//# reset for next pic
jpeg_count +=1; this_jpeg_len=0;
pos_in_Buffer = -1; //allows it to become 0 position at incrementation part
pos_in_Buffer += 1; //increment to store next byte in stdOut stream
//# end While
else
// Handler code here for "Process is not running" situation
//end ExtractFrame function
//end class
//end program
注意:修改上述代码时,请确保将Process
创建保留在函数ExtractFrames()
本身内,如果您使用某些外部函数返回@987654331,这将不起作用 @。不要设置为:using (Process cmd = GetProcess(FFmpegPath, Arguments))
。
祝你好运。告诉我进展如何。
(PS:请原谅“太多”的代码 cmets,这是为了未来的读者,他们可能会也可能不会理解这段代码在缓冲区问题上的正确工作)。
【讨论】:
Edit :添加了像pos_in_buffer
这样的缺失变量,我没有从我自己的测试程序中复制过来。现在应该可以了。
这一切都很好,但你的缓冲区大小是1
,我不希望这样。如果我的缓冲区是 1
并且视频是 2 小时长,则需要 2 小时才能完成,但如果我的缓冲区是 4096
,或者增加它,则需要 30 分钟。所以,我的问题是如何保持我的缓冲区大小,但防止“打嗝”。
嗨。我进行了编辑。由于我搞砸了更改您的代码,因此向您展示我自己的工作示例可能会更容易。然后你就可以申请你的了。 "buffer size is 1
" 是正确读取 每个字节 值所必需的。它并不慢,只是比复制 4096 个单独的匿名字节要好。您必须一次读取一个字节(没有速度差异)。最后,没有cmd.WaitForExit();
,因此您可以强制使用cmd.Close
和cmd.Dispose
,如While 循环中所示。
使用 1 字节作为缓冲区 ffmpeg 比特率约为 6000kbit/s,如果缓冲区大小为 4096,比特率是 24000kbit/s。不再重要了,我最终制作了 ffmpeg 包装器。
您是否测试了我的代码中的两个选项?为避免制作额外的包装器,您可以单独使用步骤 1 并完成,如果您需要管道的方式,那么步骤 2 就是您所需要的。没有“使用 1 个字节作为缓冲区”,只是代码告诉 STD 输出在 while 循环的每个周期报告(读取)1 个字节值。它与进程本身运行的任何程序(例如:FFmpeg)或某些比特率设置无关。一个 STD 输出数据包最大可容纳 32kb,因此对于6000
kbps,您将获得 188 个数据包。 while 循环可以在 0.001 秒内读取所有这些。缓慢将来自文件写入到有驱动器文件夹..【参考方案2】:
此问题在全球范围内发生,参考取自 Adobe 网站:
答案就在这里——默认渲染输出是未压缩的, 它产生如此高的数据速率,即使是非常强大的计算机也永远不会 能够流畅播放。
这里的事情很简单:您正在渲染高数据速率,即使在使用低质量时也是如此。这种情况下的最大缓冲区大小确实是4096
。如果该缓冲区中有来自上一个和下一个图像的字节,并且 ARE 没有用逗号分隔,则 FFmpeg 无法决定要渲染哪个帧,因此它会跳过该帧,因为它会将其调暗而不是随机建议刷新哪个帧。
如果用逗号分隔字节,则有助于 FFmpeg 绑定上一个图像和下一个图像的字节,从而更容易区分要渲染的帧,从而不会跳过帧。
【讨论】:
但是什么解决了这个问题?我需要做什么来压缩视频并达到我需要的结果?以及如何用逗号分隔字节? 最简单的方法 - byte[] bytes = strings.Select(s => byte.Parse(s)).ToArray(); 如果我将缓冲区大小降低到 1024 或 512,结果会更糟。它仅在我的缓冲区为 1 时按预期工作,但速度很慢。 我不明白...我没有要解析的字符串。 使用此链接作为提示:superuser.com/questions/1257122/…以上是关于FFmpeg 跳过渲染帧的主要内容,如果未能解决你的问题,请参考以下文章