论坛报名 | 语音与自然语言处理的最新突破和前沿趋势
Posted 智源社区
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论坛报名 | 语音与自然语言处理的最新突破和前沿趋势相关的知识,希望对你有一定的参考价值。
共同探讨人工智能的下一个十年
长按图片或点击阅读原文,内行盛会,首次免费注册
北京智源大会倒计时:5天
2020年6月21-24日,第二届(官网:https://2020.baai.ac.cn)将邀请包括6位图灵奖获得者在内的上百位人工智能领袖,一起回顾过去,展望未来,深入系统探讨“人工智能的下一个十年”。本次大会将开设19个专题论坛,主题涵盖人工智能数理基础、自然语言处理、智能体系架构与芯片、人工智能伦理治理与可持续发展、机器学习、智能信息检索与挖掘、认知神经基础、机器感知、决策智能、AI医疗、AI创业、AI交通、AI+大数据+防疫、AI框架、图神经网络、知识智能、强化学习、青年科学家机器学习前沿,以及AI科技女性,遍历人工智能基础研究及创新应用,结合时局解析人工智能最新动态,探索未来发展方向。
论坛主席
清华大学教授、智源首席科学家、博士生导师,清华大学人工智能研究院常务副院长。主要研究领域为自然语言处理、互联网智能、机器学习、社会计算和计算教育学。国家重点基础研究发展计划(973计划)项目首席科学家,国家社会科学基金重大项目首席专家。在一流国际刊物、一流国际会议、国内核心刊物上发表论文约300篇,Google Scholar论文引用数11000余次。2013年带领清华大学团队成功研制并发布了全球第一个面向全社会免费使用的中文大规模在线开放课程(MOOC)平台“学堂在线”,目前学习者达6000万人。2017年领衔研制出“九歌”人工智能古诗写作系统,并在一流国际会议上发表了一系列相关学术论文,取得了良好的社会影响。
论坛主持
京东集团副总裁、智源学者、人工智能研究院常务副院长、智联云人机交互部门负责人。他还是国际电气与电子工程师协会会士 (IEEE Fellow) 和中国人工智能学会会士 (CAAI Fellow),华盛顿大学 (西雅图) 等高校兼职教授。他曾担任IEEE西雅图分会主席,及多个国际一流学术期刊的编委/副主编。曾在微软雷德蒙研究院任首席研究员,深度学习技术中心(DLTC)负责人。主要研究领域为自然语言处理和语言与视觉多模态信息处理。他和合作者提出的DSSM、HAN、DistMult、Bottom-Up Attention等工作在业界获得广泛应用,谷歌学术论文引用1.8万次,多次获得IEEE和ACL的最佳论文奖项及赢得重要的人工智能技术大赛。何晓冬博士负责领导团队开展颠覆式创新导向的人工智能基础技术研究,以及智能客服、智能营销、智能消费媒体、数字智能与流程自动化等技术的商业化,为用户及相关行业客户提供服务。
2. Contextualized Language Processing with Explicit Representations of Context
议题简介:Automatic processing of human language (both text and speech) is playing increasingly important and diverse roles in technology, from enabling natural communication with devices to learning from social media. Language processing is challenging because word use is highly dependent on context. New methods of neural modeling that learn embedded word representations from neighboring words have enabled substantial advances on a variety of tasks, including language understanding, translation and generation. However, there are other types of context that are easily available for many forms of language: genre or speaking style, author or speaker index, location, social context, etc. This talk describes different neural architectures for contextualizing language that involve learning embedded representations of context as a separate factor in the model. Looking at a variety of language processing problems, we explore different mechanisms for representing and leveraging context, showing that explicit representation of context both improves performance and provides insights into characteristics of language associated with different contexts.
3. 预训练模型在多语言、多模态任务的应用
议题简介:最近几年神经网络自然语言处理取得了很大的进展,其中预训练模型是最近引起普遍关注的创新技术。利用几乎无限的文本数据,可以自监督的方式训练一个大型的语言模型,实现对文本的词汇的上下文相关的语义表示。在学习一个特定任务时,基于预训练模型进行细调获得了很大的性能提升。预训练模型进一步延伸到多语言、多模态的任务中,也取得了令人鼓舞的进步。本讲座介绍多语言、多模态预训练模型技术,探讨自然语言处理目前新的机会。我们也将介绍我们最近的研究成果包括支持语言理解和语言生成的统一的预训练模型(UniLM)和支持跨语言任务的预训练模型(Unicoder)。
4. Differentiable Weighted Finite State Acceptors for Machine Learning Applications
议题简介:For machine learning problems where the output is a sequence, it is helpful to be able to represent collections of sequences with associated scores. Weighted Finite State Acceptors (FSAs) are useful for this. In the past it has been difficult to integrate these with machine learning toolkits. We describe some ideas which can make Finite State Acceptors compatible with automatic differentiation (autograd). We are working on a software package that can extend PyTorch and TensorFlow to work with collections of sequences, based on FSAs.
- 点击阅读原文或长按图片,内行盛会,首次免费注册-
以上是关于论坛报名 | 语音与自然语言处理的最新突破和前沿趋势的主要内容,如果未能解决你的问题,请参考以下文章