epoch 内的平均误差和误差标准差未正确更新 - PyTorch

Posted

技术标签:

【中文标题】epoch 内的平均误差和误差标准差未正确更新 - PyTorch【英文标题】:Average error and standard deviation of error within epoch not correctly updating - PyTorch 【发布时间】:2020-03-02 11:49:04 【问题描述】:

我正在尝试使用随机梯度下降,但我不确定为什么我的错误/损失没有减少。我使用来自train 数据帧的信息是索引(每个序列)和结合亲和力,目标是预测结合亲和力。这是数据框的头部的样子:

对于训练,我对序列进行 one-hot 并使用另一个矩阵计算分数,目标是使该分数尽可能接近结合亲和力(对于任何给定的肽)。我如何计算分数和我的训练循环显示在下面的代码中,但我认为没有必要解释为什么我的错误没有减少。

#ONE-HOT ENCODING
AA=['A','R','N','D','C','Q','E','G','H','I','L','K','M','F','P','S','T','W','Y','V']
loc=['N','2','3','4','5','6','7','8','9','10','11','C']
aa = "ARNDCQEGHILKMFPSTWYV"
def p_one_hot(seq):
    c2i = dict((c,i) for i,c in enumerate(aa))
    int_encoded = [c2i[char] for char in seq]
    onehot_encoded = list()
    for value in int_encoded:
        letter = [0 for _ in range(len(aa))]
        letter[value] = 1
        onehot_encoded.append(letter)
    return(torch.Tensor(np.transpose(onehot_encoded)))

#INITALIZE TENSORS
a=Var(torch.randn(20,1),requires_grad=True) #initalize similarity matrix - random array of 20 numbers
freq_m=Var(torch.randn(12,20),requires_grad=True)
freq_m.data=(freq_m.data-freq_m.min().data)/(freq_m.max().data-freq_m.min().data)#0 to 1 scaling 
optimizer = optim.SGD([torch.nn.Parameter(a), torch.nn.Parameter(freq_m)], lr=1e-6)
loss = nn.MSELoss()

#TRAINING LOOP  
epochs = 100
for i in range(epochs): 
    #RANDOMLY SAMPLE DATA
    train = all_seq.sample(frac=.03)
    names = train.index.values.tolist()
    affinities = train['binding_affinity']
    print('Epoch: ' + str(i))
    #forward pass    
    iteration_loss=[]
    for j, seq in enumerate(names):
        sm=torch.mm(a,a.t()) #make simalirity matrix square symmetric
        freq_m.data=freq_m.data/freq_m.data.sum(1,keepdim=True) #sum of each row must be 1 (sum of probabilities of each amino acid at each position)
        affin_score = affinities[j]
        new_m = torch.mm(p_one_hot(seq), freq_m)
        tss_m = new_m * sm
        tss_score = tss_m.sum()
        sms = sm
        fms = freq_m
        error = loss(tss_score, torch.FloatTensor(torch.Tensor([affin_score])))
        iteration_loss.append(error.item())
        optimizer.zero_grad()
        error.backward()
        optimizer.step()
    mean = statistics.mean(iteration_loss)
    stdev = statistics.stdev(iteration_loss)       
    print('Epoch Average Error: ' + str(mean) + '. Epoch Standard Deviation: ' + str(stdev))
    iteration_loss.clear()

在每个 epoch 之后,我打印出该 epoch 的所有错误的平均值以及标准偏差。每个 epoch 运行大约 45,000 个序列。但是,在 10 个 epoch 之后,我的错误仍然没有任何改善,我不确定为什么。这是我看到的输出:

对于我做错了什么有什么想法吗?我是 PyTorch 的新手,因此感谢您的帮助!谢谢!

【问题讨论】:

【参考方案1】:

事实证明,将优化器参数转换为 torch.nn.Parameter() 会使张量无法保持更新,现在删除它会显示错误减少。

【讨论】:

以上是关于epoch 内的平均误差和误差标准差未正确更新 - PyTorch的主要内容,如果未能解决你的问题,请参考以下文章

问:为什么Keras训练模型得到的训练误差比测试误差高很多?

R语言std.error函数计算平均值的标准误差实战

standard error怎么算

r语言计算均方误差怎么判断

标准误,标准差,置信区间分不清?派森诺教你画误差线

为啥我得到高 MAE(平均绝对误差)和 MSE(均方误差)与 MAPE(平均绝对百分比误差)相比?