CNCC “自然语言处理前沿技术论坛”成功落下帷幕
Posted 中国计算机学会
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CNCC “自然语言处理前沿技术论坛”成功落下帷幕相关的知识,希望对你有一定的参考价值。
2020年10月22日下午,CNCC的第1天,由CCF主办,沈阳经济技术开发区管理委员会、沈阳市产业转型升级促进中心、沈阳华瑞博信息技术有限公司承办的“自然语言处理前沿技术论坛”在沈阳成功举办。
论坛执行主席由哈尔滨工业大学计算学部社会计算与信息检索研究中心张伟男副教授担任。会议邀请了四位讲者,包括教育部青年长江学者,黑龙省“龙江学者”青年学者车万翔(哈尔滨工业大学)、科大讯飞AI研究院副院长陈志刚、中国中文信息学会首届优秀博士论文提名获得者肖桐副教授(东北大学)、中国博士后科学基金特别资助获得者刘铭副教授(哈尔滨工业大学),四位讲者开启了一场顶尖的自然语言处理领域的学术盛宴。
CCF沈阳分部、CCF YOCSEF沈阳以及来自全国各地的CCF会员、知名企业技术骨干、政府代表等30余人在现场参加论坛。同时,部分注册会议的人员通过爱奇艺和B站观看了论坛直播并参与互动。
第二位讲者陈志刚博士带来了题目为《自然语言推理领域的最新进展》的报告,他介绍了在自然语言推理领域的工作内容,全面回顾自然语言推理基础上,指出自然语言推理的缺陷是语义组合、常识知识理解和机器没有很强的自主学习能力。他指出了自然语言推理的应用场景,包括阅读理解,问答等,目前的主要工作是ESIM/HIM,过程中利用编码attention机制拼接。
陈博士还就结构化文本推理、自然逻辑预测等方面的科学研究进展进行了分析和介绍,陈志刚博士最后指出:“当前做推理已经迈开了第一步,符号的方法可以发挥它的价值,在业务场景中是自然语言+少样本应用。”
第三位讲者肖桐博士带来了题目为《面向神经机器翻译的多层信息融合》的报告。他介绍了神经机器翻译的发展历程,提出了机器翻译的挑战,包括适应性问题(面向地资源场景的高适应性模型)、效率问题和结构学习问题。肖博士还介绍了已取得的成果,可以实现更快的解码速度(解码端多层信息共享)、更好的翻译质量(编码端深层),然后主要探讨了共享注意力网络(基于自注意力机制的神经机器翻译系统和面向神经机器翻译的深层网络),以及如何使用更深的网络(使用线性多步方法让上层网络充分利用之前网络的信息)。他还例举出在实验(英语-德语)中使用很强的基线性能模型,伴随着编码端层数增加,DLCL在两种范式下效果更好。得出实验结论:深层网络对比浅层base与big模型均有提升。
肖桐博士指出:“从网络表示来探索解释性,在深层网络中相邻网络表示之间呈现高相似性,同时深层网络中每个位置表示更倾向于全局句子的表示,不是单独每个词的表示”。
第四位讲者刘铭教授带来报告的题目是《多人对话语篇分析及其应用》,刘铭教授以图灵测试开篇,介绍了报告相关的基本概念,包括语篇、语篇处理、句法分析等。他还讲解了语篇结构的相关应用,包括引入语篇标识和RST树来帮助非事实性问答、假设-基于任务的语篇关系能促进机器阅读理解、抽取式摘要和生成式摘要。重点介绍了多人对话语篇结构:解析对话文本中话语之间的予以关系。他总结出,现有的工作主要是能预测图结构,而不仅是树结构,采用整数线性规划。
接下来,论坛进行了半个小时的思辨环节,主持人依次抛出三个问题。
1.机器翻译、篇章分析、对话系统和自然语言推理等方式,可解释性的需求、任务和方法有哪些?
2.自然语言推理是否具备范式和逻辑属性?如果有目前范式有哪些?如果没有原因是什么?
3.预训练为自然语言处理带来了新的机遇,那么对研究人员是否也同时带来了挑战,具体有哪些?
针对这些问题,五位讲者都发表了自己的看法,期间,现场和在线的观众也与讲者进行了精彩的互动。
经过三个半个小时的报告和深入思辨,本论坛有关自然语言处理的基本观点总结如下:
(1)对于不同的终端,可解释性有不同理解;
(2)自然语言推理中存在一定的逻辑性,但是范式还在发展中;
(3)预训练降低了自然语言处理入门的门槛,同时为研究的带来了挑战。
最后,论坛主席张伟男对本次论坛进行了总结,今日大会顺利结束。
点击“阅读原文”,加入CCF。
以上是关于CNCC “自然语言处理前沿技术论坛”成功落下帷幕的主要内容,如果未能解决你的问题,请参考以下文章