PyTorchSiLU激活函数
Posted 算法与编程之美
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorchSiLU激活函数相关的知识,希望对你有一定的参考价值。
问题
方法
SiLU激活函数介绍
SiLU激活函数介绍
import torch
from torch import nn
class Net(nn.Module):
def __init__(self) -> None:
super().__init__()
self.conv = nn.Conv2d(3, 32, 3, padding=1, stride=1)
self.silu = nn.SiLU()
def forward(self, x):
x = self.conv(x)
out = self.silu(x)
return out
if __name__ == '__main__':
import netron
device = 'cuda:0' if torch.cuda.is_available() else 'cpu'
x = torch.randn(1, 3, 224, 224).to(device)
net = Net()
model_file = 'demo.pth'
torch.onnx.export(net, x, model_file)
netron.start(model_file)
结语
以上是关于PyTorchSiLU激活函数的主要内容,如果未能解决你的问题,请参考以下文章