CCLM的改进

Posted Dillon2015

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CCLM的改进相关的知识,希望对你有一定的参考价值。

跨分支线性模型(Cross-component linear model,CCLM)是VVC新增的帧内预测技术,它假设同一个编码块的色度像素值和对应的亮度像素值有线性关系,所以CCLM使用一个线性模型直接使用亮度像素的重建值生成对应色度像素的预测值。 

其中α和β是模型参数,有色度相邻像素求得。  是色度像素对应亮度像素的重建值,对于YUV420格式视频需要对亮度进行下采样,如图1。

图1 CCLM下采样

为了进一步提高CCLM的编码效率,在ECM中对CCLM进行了改进,有以下三个方面:

  • 多模型LM,Multi-model LM (MMLM)

  • 多滤波器LM,Multi-filter LM (MFLM)

  • 结合角度的LM,LM-Angular combined prediction (LAP)

MMLM

在CCLM中,同一个CU的亮度和色度间只有一个线性模型。而MMLM为同一个CU提供了多个模型。在MMLM中,邻域的亮度和色度像素被分为不同类别,每个类别中的像素分别用于求不同的模型参数alpha和β。

在MMLM中,像素可被分为2类或3类,分别记为MMLM2和MMLM3,原始的CCLM方法记为LM,编码器根据RDO结果选择最优模式。

当分为2类时,根据阈值threshold对邻域像素分类,threshold为邻域亮度重建像素的均值。两个类别分别求出不同的模型,然后分别根据CCLM计算色度预测值,如下式。

图2 MMLM2示例

图2是分为2类的一个示例,阈值为17,两个类别使用不同的线性模型。

MFLM

在CCLM中,需要对亮度重建像素进行下采样以匹配对应色度像素。MFLM提供了4种下采样方法。

LAP

LAP的原理是色度像素的预测值由传统帧内预测值P1和MMLM2求得的预测值P2加权得到,

P1是由传统帧内预测模式(角度、DC、Planar模型)计算的预测值,P2是由MMLM2计算的预测值。如果当前色度块未使用LM模式只使用了传统的帧内预测模式,则需要传输一个标志位表示是否使用了LAP。

实验结果

参考文献

[1]KaiZhang, Jianle Chen, Li Zhang, Marta Karczewicz,JVET-D0110,"Enhanced Cross-componentLinear Model Intra-prediction,"October 2016.

感兴趣的请关注微信公众号Video Coding

以上是关于CCLM的改进的主要内容,如果未能解决你的问题,请参考以下文章

VTM10.0帧内之CCLM技术

VTM10.0帧内之CCLM技术

如何改进SVM算法,最好是自己的改进方法,别引用那些前人改进的算法

关于改进建议几个方面的有效实践

slowfast 损失函数改进深度学习网络通用改进方案:slowfast的损失函数(使用focal loss解决不平衡数据)改进

YOLOv5改进YOLOv7改进|YOLO改进超过50种注意力机制,全篇共计30万字(内附改进源代码),原创改进50种Attention注意力机制和Transformer自注意力机制