PyTorchSiLU激活函数

Posted 算法与编程之美

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorchSiLU激活函数相关的知识,希望对你有一定的参考价值。

问题

方法

SiLU激活函数介绍

SiLU激活函数介绍

import torch
from torch import nn

class Net(nn.Module):

    def __init__(self) -> None:
        super().__init__()

        self.conv = nn.Conv2d(3, 32, 3, padding=1, stride=1)
        self.silu = nn.SiLU()

    def forward(self, x):

        x = self.conv(x)
        out = self.silu(x)

        return out

if __name__ == '__main__':

    import netron
    
    device = 'cuda:0' if torch.cuda.is_available() else 'cpu'
    x = torch.randn(1, 3, 224, 224).to(device)

    net = Net()

    model_file = 'demo.pth'
    torch.onnx.export(net, x, model_file)
    netron.start(model_file)
    

结语

以上是关于PyTorchSiLU激活函数的主要内容,如果未能解决你的问题,请参考以下文章

手推机器学习 吴恩达 神经网络BP反向传播 示例推导(下篇)

#22 结语

如何选择激活函数

CNN基础——激活函数

激活函数总结

激活函数