pytorch:“不支持多目标”错误消息
Posted
技术标签:
【中文标题】pytorch:“不支持多目标”错误消息【英文标题】:pytorch: "multi-target not supported" error message 【发布时间】:2019-12-11 01:03:32 【问题描述】:所以我想对一些(3, 50, 50)
图片进行分类。首先,我在没有数据加载器或批处理的情况下从文件中加载数据集,它起作用了。现在,在添加了这两个东西之后,我得到了那个错误:
RuntimeError: multi-target not supported at /pytorch/aten/src/THCUNN/generic/ClassNLLCriterion.cu:15
我在互联网上找到了很多答案,主要是使用target.squeeze(1)
,但它对我不起作用。
我的目标批次如下所示:
tensor([[1, 0],
[1, 0],
[1, 0],
[1, 0],
[1, 0],
[1, 0],
[1, 0],
[1, 0]], device='cuda:0')
这样不行吗?
这里是完整的代码(请注意,我只创建模型的结构,之后我将在其上应用完整和正确的数据集,因为我还没有完整的数据,只有 32 张图片并且没有标签,这就是为什么我添加torch.tensor([1, 0])
作为所有标签的占位符):
import torch
import torch.utils.data
import torch.nn as nn
import torch.nn.functional as F
import torch.optim
from torch.autograd import Variable
import numpy as np
from PIL import Image
class Model(nn.Module):
def __init__(self):
super(Model, self).__init__()
# model structur:
self.conv1 = nn.Conv2d(3, 10, kernel_size=(5,5), stride=(1,1))
self.conv2 = nn.Conv2d(10, 20, kernel_size=(5,5), stride=(1,1)) # with mapool: output = 20 * (9,9) feature-maps -> flatten
self.fc1 = nn.Linear(20*9*9, 250)
self.fc2 = nn.Linear(250, 100)
self.fc3 = nn.Linear(100, 2)
def forward(self, x):
# conv layers
x = F.relu(self.conv1(x)) # shape: 1, 10, 46, 46
x = F.max_pool2d(x, 2, 2) # shape: 1, 10, 23, 23
x = F.relu(self.conv2(x)) # shape: 1, 20, 19, 19
x = F.max_pool2d(x, 2, 2) # shape: 1, 20, 9, 9
# flatten to dense layer:
x = x.view(-1, 20*9*9)
# dense layers
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
output = F.log_softmax(self.fc3(x), dim=1)
return output
class Run:
def __init__(self, epochs, learning_rate, dropout, momentum):
# load model
self.model = Model().cuda()
# hyperparameters:
self.epochs = epochs
self.learning_rate = learning_rate
self.dropout = dropout
def preporcessing(self):
dataset_folder = "/media/theodor/hdd/Programming/BWKI/dataset/bilder/"
dataset = []
for i in range(0, 35):
sample_image = Image.open(dataset_folder + str(i) + ".png")
data = torch.from_numpy(np.array(sample_image)).type("torch.Tensor").reshape(3, 50, 50)
target = torch.tensor([[1, 0]])
sample = (data, target)
dataset.append(sample)
train_loader = torch.utils.data.DataLoader(dataset, batch_size=8)
return train_loader
def train(self):
train_set = self.preporcessing()
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(self.model.parameters(), lr=self.learning_rate)
for epoch in range(self.epochs):
epoch_loss = 0
for i, data in enumerate(train_set, 0):
sample, target = data
# set data as cuda varibale
sample = Variable(sample.float().cuda())
target = Variable(target.cuda())
# initialize optimizer
optimizer.zero_grad()
# predict
output = self.model(sample)
# backpropagation
print(output, target.squeeze(1))
loss = criterion(output, target.squeeze(1)) # ERROR MESSAGE: RuntimeError: multi-target not supported at /pytorch/aten/src/THCUNN/generic/ClassNLLCriterion.cu:15
loss.backward()
optimizer.step()
epoch_loss += loss.item()
print("loss after epoch [", epoch, "|", self.epochs, "] :", epoch_loss)
run = Run(10, 0.001, 0.5, 0.9)
run.train()
所以我希望它开始训练(当然因为标签错误而没有学到任何东西), 提前致谢!
【问题讨论】:
【参考方案1】:对于nn.CrossEntropyLoss
,目标必须是区间 [0, #classes] 中的单个数字,而不是 one-hot 编码的目标向量。您的目标是 [1, 0],因此 PyTorch 认为您希望每个输入有多个标签,这是不受支持的。
替换你的 one-hot-encoded 目标:
[1, 0] --> 0
[0, 1] --> 1
【讨论】:
谢谢 :),这行得通,但我为什么离开最后一个密集层 2 的输出(或将其更改为 123)时它的工作原理相同?我是否将 [0, 0, 0, 1] 替换为 4? 您的目标始终是整数,而不是向量。对于 2 个类,它可以是 0 或 1;对于 123,它介于 0 和 122 之间。 [0, 0, 0, 1] 将是 3,因为您从 0 开始计数,但我认为您明白了这个概念。如果这回答了您的问题,请考虑将其标记为正确的问题。 应该为标签编码目标分配目标 = torch.Tensor(y)以上是关于pytorch:“不支持多目标”错误消息的主要内容,如果未能解决你的问题,请参考以下文章
RuntimeError:/pytorch/aten/src/THCUNN/generic/ClassNLLCriterion.cu:15____ 不支持多目标
RuntimeError:预期 1D 目标张量,不支持多目标 Python:NumPy
在 Google Colab pro -Pytorch 中随机接收错误消息
带有 CUDA 和 Nvidia 卡的 PyTorch:RuntimeError:CUDA 错误:所有支持 CUDA 的设备都忙或不可用,但 torch.cuda.is_available() 为 T