AAAI2022 | 通过多任务学习改进证据深度学习

Posted 人工智能博士

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了AAAI2022 | 通过多任务学习改进证据深度学习相关的知识,希望对你有一定的参考价值。

点上方人工智能算法与Python大数据获取更多干货

在右上方 ··· 设为星标 ★,第一时间获取资源

仅做学术分享,如有侵权,联系删除

转载于 :arivx

证据回归网络(ENet)估计一个连续目标及其预测的不确定性,无需昂贵的贝叶斯模型平均。然而,由于ENet原始损失函数的梯度收缩问题,即负对数边际似然损失,有可能导致目标预测不准确。本文的目标是通过解决梯度收缩问题来提高ENet的预测精度,同时保持其有效的不确定性估计。一个多任务学习(MTL)框架,被称为MT-ENet,被提出来实现这一目标。在MTL中,我们将Lipschitz修正均方误差(MSE)损失函数定义为另一种损失,并将其添加到现有的NLL损失中。设计了Lipschitz修正均方误差损失,通过动态调整其Lipschitz常数来缓解梯度与NLL损失之间的冲突。这样,李普希茨均方误差损失不影响NLL损失的不确定性估计。MT-ENet提高了ENet的预测精度,同时在合成数据集和现实基准上,包括药物-目标亲和(DTA)回归,不丧失不确定性估计能力。此外,MT-ENet在DTA基准上具有显著的校准和非分布检测能力。

---------♥---------

声明:本内容来源网络,版权属于原作者

图片来源网络,不代表本公众号立场。如有侵权,联系删除

AI博士私人微信,还有少量空位

如何画出漂亮的深度学习模型图?

如何画出漂亮的神经网络图?

一文读懂深度学习中的各种卷积

点个在看支持一下吧

以上是关于AAAI2022 | 通过多任务学习改进证据深度学习的主要内容,如果未能解决你的问题,请参考以下文章

AAAI2022 时间基础度量学习的复兴

python机器学习密码之初来乍到

AAAI Oral阿里提出新神经网络算法,压缩掉最后一个比特

UDP通过多线程改进,在一个窗口中同时接收又发送

云从科技图像识别技术入选AAAI 2020,引领技术前沿发展

深度学习三巨头齐聚AI「名人堂」,BengioLecun「补选」2020 AAAI Felllow(附完整名单)