收藏 | 深度学习到深度推理

Posted 人工智能博士

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了收藏 | 深度学习到深度推理相关的知识,希望对你有一定的参考价值。

点上方人工智能算法与Python大数据获取更多干货

在右上方 ··· 设为星标 ★,第一时间获取资源

仅做学术分享,如有侵权,联系删除

转载于 :专知

【导读】ACM SIGKDD(国际数据挖掘与知识发现大会,简称 KDD)是世界数据挖掘领域的最高级别的学术会议,由 ACM 的数据挖掘及知识发现专委会(SIGKDD)主办,被中国计算机协会推荐为 A 类会议。自 1995 年以来,KDD 已经连续举办了26届,今年将于2021年8月14日至18日举办,今年的会议主办地在新加坡。

来自deakin大学的研究人员在KDD2021上将给出关于深度学习推理的教程,非常值得关注!

大数据和大计算的兴起给数字生活的许多领域带来了现代神经网络,这要归功于构建与现实世界相适应的大型模型相对容易。Transformers的成功和对海量数据的自监督预训练让一些人相信,只要我们有数据和计算资源,深度神经网络几乎可以做任何事情。然而,情况可能并非如此。虽然神经网络可以快速地利用表面统计,但它们在泛化到新的任务上却失败得很糟糕。目前的神经网络并不执行刻意推理——即从上下文数据中有意地推导出新知识的能力。本教程回顾了最近的发展,将神经网络的能力扩展到从数据“学习推理”,其中的任务是确定数据是否包含一个结论。这种能力开辟了新的途径,通过使用自然语言进行任意查询,从数据中生成见解,而不需要预先定义一组狭义的任务。

本教程由三个主要部分组成。A部分涵盖了学习-推理框架,解释了神经网络如何通过绑定、注意力和动态计算图等自然操作作为推理的强大支柱。我们还将展示神经网络如何学习执行组合算法。第二部分将更详细地介绍神经网络如何在非结构化和结构化数据上进行推理,以及跨多种模态。将解释集合、关系、图和时间的推理。C部分回顾了更高级的主题,包括带有外部记忆的神经网络,学习用有限的标签进行推理,以及用心智理论进行递归推理。我们将特别关注神经记忆作为支持实体、关系甚至神经程序推理的基本机制。如有可能,将提供文本理解和视觉问答方面的个案研究。

https://truyentran.github.io/kdd2021-tute.html

目录:

Part A: 推理学习框架 Learning to reason framework (60 mins)

  • Reasoning as a prediction skill that can be learnt from data.

    • Question answering as zero-shot learning.

  • Neural network operations for learning to reason:

    • Concept-object binding.

    • Attention & transformers.

    • Dynamic neural networks, conditional computation & differentiable programming.

  • Reasoning as iterative representation refinement & query-driven program synthesis and execution.

    • Compositional attention networks.

    • Neural module networks.

  • Combinatorics reasoning.

Part B: 结构化与非结构化数据推理 Reasoning over unstructured and structured data (60 mins)

  • Cross-modality reasoning, the case of vision-language integration.

  • Reasoning as set-set interaction.

    • Query processing.

    • Context processing.

    • Dual-attention.

    • Conditional set functions.

  • Relational reasoning

    • Query-conditioned dynamic graph constructions

    • Reasoning over knowledge graphs.

    • Graph embedding.

    • Graph convolutional networks.

    • Graph attention.

    • Message passing.

    • Relation networks

    • Graph neural networks

  •  Temporal reasoning

    • Video question answering.

Part C: 高级主题 Advanced topics (60 mins)

  • Reasoning with external memories

    • Memory of entities – memory-augmented neural networks

    • Memory of relations with tensors and graphs

    • Memory of programs & neural program construction.

  • Learning to reason with less labels:

    • Data augmentation with analogical and counterfactual examples

    • Question generation

    • Self-supervised learning for question answering

    • Learning with external knowledge graphs

  • Recursive reasoning with neural theory of mind.

讲者

参考文献

  1. Jacob Andreas, Marcus Rohrbach, Trevor Darrell, and Dan Klein. “Neural module networks”. In CVPR, pages 39–48, 2016.

  2. Dzmitry Bahdanau, Shikhar Murty, Michael Noukhovitch, Thien Huu Nguyen, Harm de Vries, and Aaron Courville. “Systematic generalization: what is required and can it be learned?”, In ICLR, 2019.

  3. Bottou, Léon. “From machine learning to machine reasoning”. Machine learning 94.2 (2014): 133-149.

---------♥---------

声明:本内容来源网络,版权属于原作者

图片来源网络,不代表本公众号立场。如有侵权,联系删除

AI博士私人微信,还有少量空位

如何画出漂亮的深度学习模型图?

如何画出漂亮的神经网络图?

一文读懂深度学习中的各种卷积

点个在看支持一下吧

以上是关于收藏 | 深度学习到深度推理的主要内容,如果未能解决你的问题,请参考以下文章

MNN 2.0 发布——移动端推理引擎到通用深度学习引擎

阿里开源!轻量级深度学习端侧推理引擎 MNN

深度学习模型量化(低精度推理)大总结

XEngine:深度学习模型推理优化

地址标准化服务AI深度学习模型推理优化实践

TX2之多线程读取视频及深度学习推理