nn.BatchNorm讲解,nn.BatchNorm1d, nn.BatchNorm2d代码演示

Posted 无脑敲代码,bug漫天飞

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了nn.BatchNorm讲解,nn.BatchNorm1d, nn.BatchNorm2d代码演示相关的知识,希望对你有一定的参考价值。

1 nn.BatchNorm

        BatchNorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,是深度网络训练必不可少的一部分,几乎成为标配;

        BatchNorm 即批规范化,是为了将每个batch的数据规范化为统一的分布,帮助网络训练, 对输入数据做规范化,称为Covariate shift;

        数据经过一层层网络计算后,数据的分布也在发生着变化,因为每一次参数迭代更新后,上一层网络输出数据,经过这一层网络参数的计算,数据的分布会发生变化,这就为下一层网络的学习带来困难 -- 也就是在每一层都进行批规范化(Internal Covariate shift),方便网络训练,因为神经网络本身就是要学习数据的分布;

        下面通过代码掩饰BatchNorm的作用;

        首先要清楚,BatchNorm后是不改变输入的shape的

        nn.BatchNorm1d: N * d --> N * d

        nn.BatchNorm2d: N * C * H * W  -- > N * C * H * W

        nn.BatchNorm3d: N * C * d * H * W --> N * C * d * H * W

下面讲解nn.BatchNorm1d,和nn.BatchNorm2d的情况

1.1 nn.BatchNorm1d

        首先看其参数:

CLASStorch.nn.BatchNorm1d(num_features, eps=1e-05, momentum=0.1, affine=True, 
track_running_stats=True, device=None, dtype=None)

        主要参数介绍:

                num_features: 输入维度,也就是数据的特征维度;

                eps: 是在分母上加的一个值,是为了防止分母为0的情况,让其能正常计算;

                affine: 是仿射变化,将,分别初始化为1和0;

        使用方法介绍:

        主要作用在特征上,比如输入维度为N*d, N代表batchsize大小,d代表num_features;

        而nn.BatchNorm1d是对num_features做归一化处理,也就是对批次内的特征进行归一化;

如输入 N = 5(batch_size = 5), d = 3(数据特征维度为3);

         上图中的r, b是可学习的参数,文档中成为放射变换,文档中称为,  可以使用x.weight 和 x.bias获得, r初始化值为1,b初始化值为0;

        上图中方差的计算是采用的有偏估计;

        归一化处理公式:

                 E(x)表示均值, Var(x)表示方差;表示为上述参数的eps,防止分母为0 的情况;

        演示代码:

>>> import torch 
>>> import torch.nn as nn
 m = nn.BatchNorm1d(3) #首先要实例化,才能使用,3 对应输入特征,也就是number_features 
>>> m.weight # 对应r ,初始化值为1
Parameter containing:
tensor([1., 1., 1.], requires_grad=True)
>>> m.bias # 对应b,初始化为0
Parameter containing:
tensor([0., 0., 0.], requires_grad=True)
>>> output.mean(dim = 0) # 归一化后,平均值都是0, e-08 实际上也就是0了
tensor([ 0.0000e+00, -1.1921e-08, -2.3842e-08], grad_fn=<MeanBackward1>)
>>> output.std(dim = 0,unbiased = False) # 标准差为1, 有偏估计,所以unbiased = False
tensor([1.0000, 1.0000, 1.0000], grad_fn=<StdBackward0>)

 采用普通方法实现BatchNorm:

>>> x
tensor([[ 0.0482, -0.1098,  0.4099],
        [ 0.9851,  2.8229, -0.7795],
        [ 0.3493, -1.0165, -0.0416],
        [ 1.5942, -1.3420,  1.0296],
        [ 0.0452, -1.0462, -1.1866]])
>>> mean = x.mean(dim = 0)
>>> mean
tensor([ 0.6044, -0.1383, -0.1136])
>>> std = torch.sqrt(1e-5 + torch.var(x,dim = 0, unbiased = False))
>>> std
tensor([0.6020, 1.5371, 0.7976])
>>> (x - mean)/std
tensor([[-0.9239,  0.0185,  0.6564],
        [ 0.6325,  1.9265, -0.8348],
        [-0.4238, -0.5713,  0.0903],
        [ 1.6442, -0.7831,  1.4333],
        [-0.9290, -0.5906, -1.3452]])
>>> m(x) # 和上述计算结果相同
tensor([[-0.9239,  0.0185,  0.6564],
        [ 0.6325,  1.9265, -0.8348],
        [-0.4238, -0.5713,  0.0903],
        [ 1.6442, -0.7831,  1.4333],
        [-0.9290, -0.5906, -1.3452]], grad_fn=<NativeBatchNormBackward0>)

1.2 nn.BatchNorm2d

首先看其参数:

CLASStorch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, 
track_running_stats=True, device=None, dtype=None)

使用方法介绍:

        主要作用在特征上,比如输入维度为B*C*H*W, B代表batchsize大小,C代表channel,H代表图片的高度维度,W代表图片的宽度维度;

        而nn.BatchNorm2d是对channel做归一化处理,也就是对批次内的特征进行归一化;

如输入B * C * H * W = (2 * 3 * 2 * 2):

         计算的均值和方差的方式实际上是把batch内对应通道的数据拉平计算;

        演示代码:

>>> y = torch.randn(2,3,2,2)
>>> y
tensor([[[[-0.3008,  0.7066],
          [ 0.5374, -0.4211]],

         [[-0.3935,  0.6193],
          [ 0.5375, -0.2747]],

         [[ 0.8895,  0.0956],
          [-0.0622,  1.7511]]],


        [[[-0.2402,  0.6884],
          [ 0.5264,  0.3918]],

         [[-0.3101, -0.6729],
          [-0.5292, -1.0383]],

         [[-0.6681, -0.3747],
          [ 0.3431,  0.3245]]]])
>>> n = nn.BatchNorm2d(3)
>>> n.weight
Parameter containing:
tensor([1., 1., 1.], requires_grad=True)
>>> n.bias
Parameter containing:
tensor([0., 0., 0.], requires_grad=True)
>>> n(y)
tensor([[[[-1.2111,  1.0613],
          [ 0.6797, -1.4823]],

         [[-0.2544,  1.6433],
          [ 1.4902, -0.0318]],

         [[ 0.8494, -0.2705],
          [-0.4931,  2.0649]]],


        [[[-1.0742,  1.0204],
          [ 0.6549,  0.3513]],

         [[-0.0981, -0.7779],
          [-0.5086, -1.4626]],

         [[-1.3479, -0.9340],
          [ 0.0786,  0.0524]]]], grad_fn=<NativeBatchNormBackward0>)

        关于均值方差的计算方法演示:

>>> z = [-1.2111,  1.0613, 0.6797, -1.4823, -1.0742,  1.0204, 0.6549,  0.3513] # 每个通道拉平计算
>>> import numpy as np
>>> np.mean(z) # 10的-17次方就是0
-2.7755575615628914e-17
>>> np.std(z) # numpy默认是有偏的, torch的模式是无偏的
0.9999846111315913

参考:[pytorch 网络模型结构] 深入理解 nn.BatchNorm1d/2d 计算过程_哔哩哔哩_bilibili

pytorch 笔记 torch.nn.BatchNorm1d

1 主要参数介绍

torch.nn.BatchNorm1d(num_features, eps=1e-05)
num_features需要进行归一化的数据维度,一般等于dim_hid
eps加到分母上的值,以保证数值稳定性

2 num_feature分析

batch normalization是对一个batch里面的每一个维度分别进行归一化

 

举一个例子:

a=torch.Tensor([[1,1,1],
                [2,-3,5],
                [0.1,-0.3,0.5],
                [1.2,-1.3,1.5]])
f1=torch.nn.BatchNorm1d(3)
f2=torch.nn.BatchNorm1d(4)
print(a,'\\n',f1(a),'\\n',f2(a.T))

'''
tensor([[ 1.0000,  1.0000,  1.0000],
        [ 2.0000, -3.0000,  5.0000],
        [ 0.1000, -0.3000,  0.5000],
        [ 1.2000, -1.3000,  1.5000]]) 
 tensor([[-0.1110,  1.3003, -0.5657],
        [ 1.3685, -1.4372,  1.6971],
        [-1.4425,  0.4106, -0.8485],
        [ 0.1849, -0.2738, -0.2828]], grad_fn=<NativeBatchNormBackward0>) 
 tensor([[ 0.0000e+00,  2.0203e-01,  2.2812e-08,  5.8423e-01],
        [ 0.0000e+00, -1.3132e+00, -1.2247e+00, -1.4075e+00],
        [ 0.0000e+00,  1.1112e+00,  1.2247e+00,  8.2323e-01]],
       grad_fn=<NativeBatchNormBackward0>)
'''

num_features是3,表示每个sample有三个feature,那么就有三组数据分别要进行归一化

 

以上是关于nn.BatchNorm讲解,nn.BatchNorm1d, nn.BatchNorm2d代码演示的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch中的nn.BatchNorm2d

PyTorch基础(12)-- torch.nn.BatchNorm2d()方法

PyTorch基础(12)-- torch.nn.BatchNorm2d()方法

Pytorch神经网络序列化容器

RexNet片段记录

RexNet片段记录