形状 '[-1, 2, 4, 28]' 对于大小为 768 的输入无效

Posted

技术标签:

【中文标题】形状 \'[-1, 2, 4, 28]\' 对于大小为 768 的输入无效【英文标题】:shape '[-1, 2, 4, 28]' is invalid for input of size 768形状 '[-1, 2, 4, 28]' 对于大小为 768 的输入无效 【发布时间】:2021-08-02 09:21:39 【问题描述】:

我正在尝试在 TPSSpatialTransformerNetwork 上训练 IAM 数据集,但最后出现错误: shape '[-1, 2, 4, 28]' 对于大小为 768 的输入无效

数据集中的每个图像的大小为 (32,128)。我无法弄清楚它在错误步骤中得到的形状。这是代码:

class TPS_SpatialTransformerNetwork(nn.Module):
    def __init__(self):
        super(TPS_SpatialTransformerNetwork, self).__init__()
        self.conv1 = nn.Conv2d(1, 79, kernel_size=5)
        self.conv2 = nn.Conv2d(79, 256, kernel_size=5)
        self.conv2_drop = nn.Dropout2d()
        self.fc1 = nn.Linear(256, 512)
        self.fc2 = nn.Linear(512, 79)

        # Spatial transformer localization-network
        self.localization = nn.Sequential(
            nn.Conv2d(1, 8, kernel_size=7),
            nn.MaxPool2d(2, stride=2),
            nn.ReLU(True),
            nn.Conv2d(8, 79, kernel_size=5),
            nn.MaxPool2d(2, stride=2),
            nn.ReLU(True)
        )

        # Regressor for the 3 * 2 affine matrix
        self.fc_loc = nn.Sequential(
            nn.Linear(79 * 4 * 28, 32),
            nn.ReLU(True),
            nn.Linear(32, 3 * 2)
        )

        # Initialize the weights/bias with identity transformation
        self.fc_loc[2].weight.data.zero_()
        self.fc_loc[2].bias.data.copy_(torch.tensor([1, 0, 0, 0, 1, 0], dtype=torch.float))

    # Spatial transformer network forward function
    def stn(self, x):
        xs = self.localization(x)
        xs = xs.view(-1, 79 * 4 * 28)
        theta = self.fc_loc(xs)
        theta = theta.view(-1, 2, 4,28)


        grid = F.affine_grid(theta, x.size())
        x = F.grid_sample(x, grid)

        return x

    def forward(self, x):
        # transform the input
        x = self.stn(x)

        # Perform the usual forward pass
        x = F.relu(F.max_pool2d(self.conv1(x), 2))
        x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
        x = x.view(-1, 320)
        x = F.relu(self.fc1(x))
        x = F.dropout(x, training=self.training)
        x = self.fc2(x)
        return F.log_softmax(x, dim=1)

4 frames
/content/drive/My Drive/OCR/transformation.py in stn(self, x)
     41         xs = xs.view(-1, 79 * 4 * 28)
     42         theta = self.fc_loc(xs)
---> 43         theta = theta.view(-1, 2, 4,28)
     44 
     45 

RuntimeError: shape '[-1, 2, 4, 28]' is invalid for input of size 768

【问题讨论】:

您的 theta (大概)大小为 [-1, 6],您正在尝试将其调整为大小为 [-1, 2, 4, 28] 的图像,我想这些大小中的第一个 -1 表示数据的批量大小。除非我弄错了,这两个似乎不兼容? 【参考方案1】:

我在发表评论后进行了快速搜索,发现link 详细说明了如何在 pytorch 中进行 STN(在官方 pytorch 网站上)。我不知道您是如何获得调整大小命令的,但我在上面最初评论中的建议似乎是正确的,您正在尝试调整(查看)大小为 [2,4,28] 的矩阵中的 6 个特征,这将从不工作。正如您在下面看到的,它在 pytorch 网站上的完成方式是:

def stn(self, x):
    xs = self.localization(x)
    xs = xs.view(-1, 10 * 3 * 3)
    theta = self.fc_loc(xs)
    theta = theta.view(-1, 2, 3) #<-----------KEY LINE HERE

    grid = F.affine_grid(theta, x.size())
    x = F.grid_sample(x, grid)
    return x

theta 张量使用与 6 的深度相对应的尺寸进行重塑。

theta 张量大小为 6 的原因是因为它提供了 self.fc_loc 方法,该方法本身给出为:

    self.fc_loc = nn.Sequential(
        nn.Linear(79 * 4 * 28, 32),
        nn.ReLU(True),
        nn.Linear(32, 3 * 2)
    )

如果我们看最后一行,我们可以看到这个顺序块的输出(其中每一行在图中按顺序构造,即 SEQUENTIAL!)是一个线性块,有 32 个输入和 6 个输出(3 *2)。因此,您的 theta 的形状将是 [-1, 6],其中 -1 是这段代码中批量大小的占位符。

【讨论】:

你能解释一下theta形状是如何形成的吗?为什么它的形状是 (-1,2,3)?

以上是关于形状 '[-1, 2, 4, 28]' 对于大小为 768 的输入无效的主要内容,如果未能解决你的问题,请参考以下文章

Tensorflow卷积网络——维度(形状)是如何计算的?

根据日期时间索引合并两个数据框(不同大小)

ValueError:检查输入时出错:预期dense_1_input有2维,但得到了形状为(60000、28、28)的数组

是否可以制作具有 4 维数据形状的 LSTM 模型?

熊猫平均每行大小为 5 的块

AC日记 - - - 28——中位数