应用torchinfo计算网络的参数量
Posted 算法与编程之美
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了应用torchinfo计算网络的参数量相关的知识,希望对你有一定的参考价值。
1 问题
定义好一个VGG11网络模型后,我们需要验证一下我们的模型是否按需求准确无误的写出,这时可以用torchinfo库中的summary来打印一下模型各层的参数状况。这时发现表中有一个param以及在经过两个卷积后参数量(param)没变,出于想知道每层的param是怎么计算出来,于是对此进行探究。
2 方法
1、网络中的参数量(param)是什么?
param代表每一层需要训练的参数个数,在全连接层是突触权重的个数,在卷积层是卷积核的参数的个数。
2、网络中的参数量(param)的计算。
卷积层计算公式:Conv2d_param=(卷积核尺寸*输入图像通道+1)*卷积核数目
池化层:池化层不需要参数。
全连接计算公式:Fc_param=(输入数据维度+1)*神经元个数
3、解释一下图表中vgg网络的结构和组成。vgg11的网络结构即表中的第一列:
conv3-64→maxpool→conv3-128→maxpool→conv3-256→conv3-256→maxpool→conv3-512→conv3-512→maxpool→conv3-512→conv3-512→maxpool→FC-4096→FC-4096→FC-1000→softmax。
4、代码展示
import torch from torch import nn from torchinfo import summary class MyNet(nn.Module): #定义哪些层 def __init__(self) : super().__init__() #(1)conv3-64 self.conv1 = nn.Conv2d( in_channels=1, #输入图像通道数 out_channels=64,#卷积产生的通道数(卷积核个数) kernel_size=3,#卷积核尺寸 stride=1, padding=1 #不改变特征图大小 ) self.max_pool_1 = nn.MaxPool2d(2) #(2)conv3-128 self.conv2 = nn.Conv2d( in_channels=64, out_channels=128, kernel_size=3, stride=1, padding=1 ) self.max_pool_2 = nn.MaxPool2d(2) #(3)conv3-256 self.conv3 = nn.Conv2d( in_channels=128, out_channels=256, kernel_size=3, stride=1, padding=1 ) self.conv4 = nn.Conv2d( in_channels=256, out_channels=256, kernel_size=3, stride=1, padding=1 ) self.max_pool_3 = nn.MaxPool2d(2) #(4)conv3-512 self.conv5 = nn.Conv2d( in_channels=256, out_channels=512, kernel_size=3, stride=1, padding=1 ) self.conv6 = nn.Conv2d( in_channels=512, out_channels=512, kernel_size=3, stride=1, padding=1 ) self.max_pool_4 = nn.MaxPool2d(2) #(5)conv3-512 self.conv7 = nn.Conv2d( in_channels=512, out_channels=512, kernel_size=3, stride=1, padding=1 ) self.conv8 = nn.Conv2d( in_channels=512, out_channels=512, kernel_size=3, stride=1, padding=1 ) self.max_pool_5 = nn.MaxPool2d(2) self.fc1 = nn.Linear(in_features=7*7*512,out_features=4096) self.fc2 = nn.Linear(in_features=4096,out_features=4096) self.fc3 = nn.Linear(in_features=4096,out_features=1000) #计算流向 def forward(self,x): x = self.conv1(x) x = self.max_pool_1(x) x = self.conv2(x) x = self.max_pool_2(x) x = self.conv3(x) x = self.conv4(x) x = self.max_pool_3(x) x = self.conv5(x) x = self.conv6(x) x = self.max_pool_4(x) x = self.conv7(x) x = self.conv8(x) x = self.max_pool_5(x) x = torch.flatten(x,1) #[B,C,H,W]从C开始flatten,B不用flatten,所以要加1 x = self.fc1(x) x = self.fc2(x) out = self.fc3(x) return out if __name__ == '__main__': x = torch.rand(128,1,224,224) net = MyNet() out = net(x) #print(out.shape) summary(net, (12,1,224,224)) |
输出结果:
图片中红色方块计算过程:
1:相关代码及计算过程(卷积层)
self.conv7 = nn.Conv2d( in_channels=512, out_channels=512, kernel_size=3, stride=1, padding=1 ) |
Conv2d_param= (3*3*512+1)*512=2,359,808(Conv2d-12代码同,故param同)
2:相关代码及计算过程
self.fc3 = nn.Linear(in_features=4096,out_features=1000) |
Fc_fc_param=(4096+1)*1000=4,097,000
3 结语
以上为一般情况下参数量计算方法,当然还有很多细节与很多其他情况下的计算方法没有介绍,主要用来形容模型的大小程度,针对不同batch_size下param的不同,可以用于参考来选择更合适的batch_size。
以上是关于应用torchinfo计算网络的参数量的主要内容,如果未能解决你的问题,请参考以下文章