关联图神经网络与结构因果模型

Posted 人工智能博士

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关联图神经网络与结构因果模型相关的知识,希望对你有一定的参考价值。

点上方人工智能算法与Python大数据获取更多干货

在右上方 ··· 设为星标 ★,第一时间获取资源

仅做学术分享,如有侵权,联系删除

转载于 :专知

图神经网络与因果推理是当下大家关注的焦点,GNN有强大的图结构建模表达能力,因果推理旨在探究因果关系结构,如何将两者联系起来是一个挑战性的问题?来自TU&DeepMind的研究人员将这两者做了研究,建立基于GNN的因果推理。


因果性可以用结构因果模型(SCM)来描述,该模型承载了有关兴趣变量及其机械关系的信息。对于大多数感兴趣的过程来说,底层的SCM将只是部分可见的,因此因果推理试图利用任何观察的信息。图神经网络(GNN)作为结构化输入的通用逼近器,为因果学习提供了一个可行的候选者,建议与SCM更紧密的集成。为此,我们提出了从第一原理出发的理论分析,在GNN和SCM之间建立了新的联系,同时提供了一般神经因果模型的扩展观点。然后我们建立了一个新的基于GNN的因果推理模型类,该模型类是因果效应识别的必要和充分条件。我们对模拟和标准基准的实证说明验证了我们的理论证明。

https://www.zhuanzhi.ai/paper/8c09c90940b1603f6d6dbce7335df3fc

引言

理解因果关系是人类认知的核心,因此对科学、工程、商业和法律具有很高的价值(Penn and Povinelli 2007)。发展心理学向我们展示了孩子们是如何像科学家一样进行探索的,都是通过问“如果……会怎么样?””和“为什么?这类问题((Gopnik 2012; Buchsbaum et al. 2012; Pearl and Mackenzie 2018),而人工智能研究梦想将科学家的行为方式自动化(McCarthy 1998; McCarthy and Hayes 1981; Steinruecken et al. 2019)。深度学习带来了可优化的逼近普适性,这是指对于任何函数都存在一个接近任意精度的神经网络(Cybenko 1989;Hornik 1991)。这种能力已经在各种应用中获得了巨大的成功(Krizhevsky, Sutskever, and Hinton 2012;Mnih et al. 2013;Vaswani et al. 2017)。因此,将因果关系与深度学习相结合,对于即将达到人类智能水平的研究具有至关重要的意义。对所谓的神经-因果模型进行紧密整合的初步尝试(Xia et al. 2021;Pawlowski, Castro, and Glocker 2020)的存在,并显示出有望实现一个系统的梦想,该系统在其最令人印象深刻的应用中,可以执行与现代神经模块同样规模的有效性的因果推理。

虽然因果关系在过去十年中已经被彻底地正式化了(Pearl 2009;Peters, Janzing, and Scholkopf 2017),“另一方面,深度学习在实际应用中取得了成功,理论突破仍然很少。”Bronstein等人(2017)率先提出了几何深度学习的概念,从几何观点出发并将其推广到现代架构的一类重要神经网络是图神经网络(GNN) (Velickovi ˇ c et al. 2017; Kipf and Welling 2016a; Gilmer ´ et al. 2017)。与其他专门的神经网络类似,GNN在药物发现(Stokes et al. 2020)和谷歌地图的ETA预测(DerrowPinion et al. 2021)等专门应用中取得了最先进的性能。这些特性,我们称之为归纳偏差,可以利用其他证明不可能的推论(Gondal et al. 2019)。

顾名思义,GNN在输入的结构上放置了一个归纳偏差,即,输入的维度是相关的,这样它们就形成了一个图结构。要回到因果关系,其核心是结构因果模型(SCM),它被认为是负责数据生成的现实模型。SCM在其所建模的变量上暗示了一个图结构,而由于GNN研究的是图,对这两个模型之间的关系进行更仔细的检查似乎对神经因果人工智能的研究进展是合理的。我们没有从因果关系的原则中获得灵感来改进机器学习(Mitrovic等人,2020年),而是展示了GNN如何用于执行因果计算,即因果关系如何在神经模型中出现。更准确地说,因果推理是指Pearl因果层次(PCH)模型(Bareinboim et al. 2020)。也就是说,我们以(部分)因果图和/或来自层次结构不同层次的数据的形式获得了关于SCM的部分知识。

总的来说,我们做出了一些关键贡献: (1) 我们从第一性原理推导出GNN和SCM之间的理论联系; (2)定义一个更细粒度的NCM; (3) 我们形式化了GNN的干预,并由此建立了一个新的神经因果模型类,利用自动编码器;(4) 在与现有工作相关的情况下,我们提供了关于这一新的模型类的可行性、表达性和可识别性的理论结果和证明。(5) 我们实证检验了我们的理论模型在识别和估计任务中的实际因果推理。

The GNN-SCM-NCM 联系

为了进一步扩展因果和机器学习之间的整合边界,我们对图神经网络(GNN)和结构因果模型(SCM)之间的关系进行了理论研究,从而也传递到神经因果模型(NCM)。虽然因果识别的所有已建立的结果已经证明,干预/操纵对于因果推理来说不是必要的,干预/操纵的概念仍然是因果关系的核心,正如Peter Holland和Don Rubin长期以来的座右铭“没有操纵就没有因果关系”(Holland 1986)所暗示的那样。干预的中心地位是我们选择将干预作为理论研究的起点的原因。因此,我们首先在GNN计算层中定义了一个干预过程,随后将揭示该过程的合理属性,类似于SCM上的干预。

基于GNN的因果推理


---------♥---------

声明:本内容来源网络,版权属于原作者

图片来源网络,不代表本公众号立场。如有侵权,联系删除

AI博士私人微信,还有少量空位

如何画出漂亮的深度学习模型图?

如何画出漂亮的神经网络图?

一文读懂深度学习中的各种卷积

点个在看支持一下吧

以上是关于关联图神经网络与结构因果模型的主要内容,如果未能解决你的问题,请参考以下文章

基于R语言的贝叶斯网络模型的实践技术应用

最新《图神经网络模型与应用》综述论文

20贝叶斯分类器:贝叶斯网络(属性之间存在依赖)

自然语言处理NLP——图神经网络与图注意力模型(GNNGCNGAT)

从图到图卷积:漫谈图神经网络模型

性能超越图神经网络,将标签传递和简单模型结合实现SOTA