高斯分布(Guassian Distribution)建模不确定度(Uncertainty)问题
Posted SoaringPigeon
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了高斯分布(Guassian Distribution)建模不确定度(Uncertainty)问题相关的知识,希望对你有一定的参考价值。
高斯模型建模不确定度问题
参考文章:
Robust Person Re-identification by Modelling Feature Uncertainty
GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty Estimation
噪声分类
在实践中,两种噪声是普遍的:
(1)人工标注产生的标注误差噪声
(2)扫描过程信号丢失或遮挡引用的数据噪声
解决方案有二:特征提取角度&标签优化角度
特征提取角度:如何从特征空间角度处理intra-class和inter-class问题
一般的卷积神经网络在缩近类内距离的过程中会破坏类间的分隔独立性。在DistributionNet中,每张图片都被表示为一个高斯分布,均值表示正常的特征向量,方差度量了此特征的不确定度。训练过程中噪音样本会有更高的方差,会对特征空间有更小的影响。网络会更多关注干净、非离群的样本,可以产生更好的类间分隔独立性。
从分布中我们随机采样特征向量,与均值特征向量一同参与损失计算,但普通的随机采样过程会破坏端到端训练的梯度反传过程,在此我们会使用一个重新参数化技巧,使得整个过程可以被端到端进行训练。
分类损失便由两部分组成:第一部分为高斯分布的均值与ground truth计算的损失,第二部分为根据高斯分布采样的N个特征向量的损失平均值,我们设置了一个权重
λ
=
0.1
\\lambda=0.1
λ=0.1限制第二部分损失对整个网络优化的影响。
另外,为了避免模型训练优化使得各通道方差趋于0最终与普通卷积神经网络一致,对噪声样本过度拟合,我们设置了Feature Uncertainty Loss。显然,模型会维持训练样本的总不确定性/方差。由于干净的样本对应的分类损失更小,因此模型的总方差更多会被分配到噪声样本。
两个关键问题
基于以上的讨论,DistributionNet会呈现两种事实:
(1)它会给噪音样本(错误标注或离群值)分配更大的方差预测,给干净样本分配更小的方差。
(2)大方差的噪音样本在训练中会对特征空间的学习产生的影响更小。
那么两个关键问题油然而生:
(1)Why large variances for noisy samples?
(2)Why samples with larger variance contribute less for modeltraining?
第一个问题:
这是由于离群或者是错误标注的样本,离样本中心的距离会更远,这会导致更大的分类损失。又因为我们设置了Feature Uncertainty Loss,模型不会优化使每个样本的方差为0,那么谁的方差会更大呢?答案是明显的:减小噪声样本的方差仍然会导致较大的分类损失,但是减小干净样本的方差给分类损失带来明显而直接的下降,因此模型肯定会讲方差值分配给噪声样本,这也就解释了第一个关键问题。
第二个问题:
因为方差大,采样得到的多个特征向量形成的损失梯度分散,互相相斥,最终无法得到一致梯度下降方向,因此对模型训练的贡献会降低。
标签优化角度:生成的标签不确定度估计
把标签不确定度问题建模为物体潜在正确建议框的多样性(The diversity of potentially plausible bounding boxes of objects),简单来说就是给定采集到的物体表面点云,可能会有不同正确的标注方式,不以GT给的box为唯一标准。Exlicitly model the one-to-many relationship between a typical 3D object and its potentially plausible ground-truth boxes in a learning-based framework.
问题描述
推断和训练过程
测试时:通过Prior Network生成合理的特征分布,通过采样并与Context Encoder输出concat一起输入Prediction Network,目的是生成3D boxes,这些boxes其实就是物体潜在正确建议框的多样性(The diversity of potentially plausible bounding boxes of objects)。
训练时:可以看出网络有3个模块需要训练,分别是Prior Network,Context Encoder和Prediction Network。作者设计了一个新的网络Recognition Network,这也是作者认为方法出自CVAE的原因,此处有一个假设(Assumption):给定点云和GT BOX的情况下,存在一个确定的后验分布 q ( z ∣ X , C ) q(z|X,C) q(z∣X,C) ,这是对Prior Network输出分布的监督,它能够与Context Encoder输出concat一起通过Prediction Network输出准确的GT BOX。其中Huber Loss约束了Context Encoder、Prediction Network和Recognition Network的学习,同时Recognition Network的输出约束了Prior Network的学习。
Recognition Network
如何应用到3D Detector上?
记住核心: GLENet的目的是将GT Box建模为Gaussian Distribution,最终这个Gaussian Distrition会用于约束3D Detector,前面的训练都是在帮助训练GLENet来生成合理的Gaussian Distribution。
让检测头的输出是不同bounding boxes的概率分布:
同时让GT boxes也被认为是一个Gaussian分布,因此便可以计算KL散度损失:
同时预测的方差帮助box的IOU预测:
最后,提供了一个Ensemble策略3D Var Voting: During the merging process, the neighboring boxes that are closerand have a low variance are assigned with higher weights.Note that neighboring boxes with a large angle differencefrom𝑏do not participate in the ensembling of angles.
)
以上是关于高斯分布(Guassian Distribution)建模不确定度(Uncertainty)问题的主要内容,如果未能解决你的问题,请参考以下文章