《南溪的目标检测学习笔记》——特征归一化(mead&std)

Posted songyuc

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《南溪的目标检测学习笔记》——特征归一化(mead&std)相关的知识,希望对你有一定的参考价值。

key words: Feature Normalization, 特征归一化

1 介绍

在这篇博文中,我们将介绍特征归一化(Feature Normalization)方法;
特征归一化FN一般用于图像预处理中,使用T.Normalize(mean, std)来实现;
所以在进行归一化操作时,我们需要知道数据分布的mean和std;
这里,我们认为:mead&std是从训练集中获得的。
于是,首先来看看怎么获得训练集的mead&std;

2 Mead&std(均值和方差)

数据输入:训练集数据
这里来看看均值和方差的数学公式,
均值(离散随机变量的数学期望):
E ( X ) = ∑ i N x i N . E(X) = \\frac{\\sum_{i}^{N}x_i}{N}. E(X)=NiNxi.
这里 N N N为样本的总个数。
标准差\\sigma(X)(离散随机变量的数学期望):
D ( X ) = E ( X 2 ) − [ E ( X ) ] 2 σ ( X ) = D ( X ) . D(X) = E(X^2) - {\\left [ E\\left ( X\\right )\\right ]}^2\\\\ \\sigma(X) = \\sqrt{D(X)}. D(X)=E(X2)[E(X)]2σ(X)=D(X) .
备注:我们这里采用推导式来计算标准差,因为这样通过一次循环就可以计算出std,实现效率会更高一些。

以上是关于《南溪的目标检测学习笔记》——特征归一化(mead&std)的主要内容,如果未能解决你的问题,请参考以下文章

《南溪的目标检测学习笔记》——特征融合的学习笔记

《南溪的目标检测学习笔记》——模型预处理的学习笔记

《南溪的目标检测学习笔记》——基础算子的学习笔记

《南溪的目标检测学习笔记》——性能优化的学习笔记

《南溪的目标检测学习笔记》——深度学习的假设

《南溪的目标检测学习笔记》——预训练微调的学习笔记