Python案例短视频转动漫效果
Posted 走召大爷
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Python案例短视频转动漫效果相关的知识,希望对你有一定的参考价值。
近日,已使用多年的人教版小学数学教材中的插画引发社会各界人士争议。咱程序员也没有手绘插画能力,但咱可以借助强大的深度学习模型将视频转动漫。本文目标是让任何具有python
语言基本能力的程序员,实现短视频转动漫效果。示例效果如下:
1 视频转动漫整体实现思路
整个实现流程如下:
- 读取视频帧
- 将每一帧图像转为动漫帧
- 将转换后的动漫帧转为视频
难点在于如何将图像转为动漫效果。这里我们使用基于深度学习的动漫效果转换模型,考虑到许多读者对这块不了解,因此我这边准备好了源码和模型,直接调用即可。不想看文章细节的可以直接拖到文章末尾,获取源码。
2 图像转动漫
为了让读者不关心深度学习模型,已经为读者准备好了转换后的onnx
类型模型。接下来按顺序介绍运行onnx
模型流程。
2.1 安装onnxruntime
库
pip install onnxruntime
如果想要用GPU
加速,可以安装GPU
版本的onnxruntime
:
pip install onnxruntime-gpu
需要注意的是:
onnxruntime-gpu
的版本跟CUDA
有关联,具体对应关系如下:
当然了,如果用CPU
运行,那就不需要考虑那么多啦。考虑到通用性,本文全部以CPU
版本onnxruntime
。
2.2 运行模型
先导入onnxruntime
库,创建InferenceSession
对象,调用run函数。如下所示
import onnxruntime as rt
sess = rt.InferenceSession(MODEL_PATH)
inp_name = sess.get_inputs()[0].name
out = sess.run(None, inp_name: inp_image)
具体到我们这里的动漫效果,实现细节如下:
import cv2
import numpy as np
import onnxruntime as rt
# MODEL = "models/anime_1.onnx"
MODEL = "models/anime_2.onnx"
sess = rt.InferenceSession(MODEL)
inp_name = sess.get_inputs()[0].name
def infer(rgb):
rgb = np.expand_dims(rgb, 0)
rgb = rgb * 2.0 / 255.0 - 1
rgb = rgb.astype(np.float32)
out = sess.run(None, inp_name: rgb)
out = out[0][0]
out = (out+1)/2*255
out = np.clip(out, 0, 255).astype(np.uint8)
return out
def preprocess(rgb):
pad_w = 0
pad_h = 0
h,w,__ = rgb.shape
N = 2**3
if h%N!=0:
pad_h=(h//N+1)*N-h
if w%2!=0:
pad_w=(w//N+1)*N-w
# print(pad_w, pad_h, w, h)
rgb = np.pad(rgb, ((0,pad_h),(0, pad_w),(0,0)), "reflect")
return rgb, pad_w, pad_h
其中, preprocess
函数确保输入图像的宽高是8
的整数倍。这里主要是因为考虑到深度学习模型有下采样,确保每次下采样能被2
整除。
2.3 单帧效果展示
3 视频帧读取与视频帧写入
这里使用Opencv
库,提取视频中每一帧并调用回调函数将视频帧回传。在将图片转视频过程中,通过定义VideoWriter
类型变量WRITE
确保唯一性。具体实现代码如下:
import cv2
from tqdm import tqdm
WRITER = None
def write_frame(frame, out_path, fps=30):
global WRITER
if WRITER is None:
size = frame.shape[0:2][::-1]
WRITER = cv2.VideoWriter(
out_path,
cv2.VideoWriter_fourcc(*'mp4v'), # 编码器
fps,
size)
WRITER.write(frame)
def extract_frames(video_path, callback):
video = cv2.VideoCapture(video_path)
num_frames = int(video.get(cv2.CAP_PROP_FRAME_COUNT))
for _ in tqdm(range(num_frames)):
_, frame = video.read()
if frame is not None:
callback(frame)
else:
break
3 获取源码
- 关注公众号:
Python学习实战
- 公众号聊天界面回复:
动漫
,获取完整源码。
如果您觉得本文有帮助,辛苦您点个不需花钱的赞,您的举手之劳将对我提供了无限的写作动力! 也欢迎关注我的公众号:Python学习实战, 第一时间获取最新文章。
以上是关于Python案例短视频转动漫效果的主要内容,如果未能解决你的问题,请参考以下文章