Pytorch中nn.Dropout2d的作用

Posted jiading

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Pytorch中nn.Dropout2d的作用相关的知识,希望对你有一定的参考价值。

Pytorch中nn.Dropout2d的作用

首先,关于Dropout方法,这篇博文有详细的介绍。简单来说,

我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征

dropout方法有很多类型,图像处理中最常用的是Dropout2d,我从网上找了很多的中文资料,都没有让人满意的介绍,意外发现源代码dropout.py中的介绍还挺好的:

Randomly zero out entire channels:A channel is a 2D feature map.
Each channel will be zeroed out independently on every forward call with probability :attr:`p` using samples from a Bernoulli distribution

它是适用于有多个channel的二维输出的

以上是关于Pytorch中nn.Dropout2d的作用的主要内容,如果未能解决你的问题,请参考以下文章

将两行torch代码转为pytorch或python代码,代码如下

用外行术语来说,pytorch 中的聚集函数有啥作用?

Pytorch一文搞懂nn.Conv2d的groups参数的作用

Pytorch一文搞懂nn.Conv2d的groups参数的作用

PyTorch最常见的view的作用

pytorch hook 钩子