Pytorch中nn.Dropout2d的作用
Posted jiading
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch中nn.Dropout2d的作用相关的知识,希望对你有一定的参考价值。
Pytorch中nn.Dropout2d的作用
首先,关于Dropout方法,这篇博文有详细的介绍。简单来说,
我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征
dropout方法有很多类型,图像处理中最常用的是Dropout2d,我从网上找了很多的中文资料,都没有让人满意的介绍,意外发现源代码dropout.py中的介绍还挺好的:
Randomly zero out entire channels:A channel is a 2D feature map.
Each channel will be zeroed out independently on every forward call with probability :attr:`p` using samples from a Bernoulli distribution
它是适用于有多个channel的二维输出的
以上是关于Pytorch中nn.Dropout2d的作用的主要内容,如果未能解决你的问题,请参考以下文章
将两行torch代码转为pytorch或python代码,代码如下
Pytorch一文搞懂nn.Conv2d的groups参数的作用