PyTorchnn.ReLU()与F.relu()的区别
Posted 算法与编程之美
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorchnn.ReLU()与F.relu()的区别相关的知识,希望对你有一定的参考价值。
问题
使用PyTorch编程实现CNN卷积层的时候,经常会遇到
class BasicConv2d(nn.Module):
def __init__(self, in_channels: int, out_channels: int, **kwargs: Any) -> None:
super().__init__()
self.conv = nn.Conv2d(in_channels, out_channels, bias=False, **kwargs)
self.bn = nn.BatchNorm2d(out_channels, eps=0.001)
def forward(self, x: Tensor) -> Tensor:
x = self.conv(x)
x = self.bn(x)
return F.relu(x, inplace=True)
方法
结语
以上是关于PyTorchnn.ReLU()与F.relu()的区别的主要内容,如果未能解决你的问题,请参考以下文章