NLP领域的最新研究进展

Posted Datawhale

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了NLP领域的最新研究进展相关的知识,希望对你有一定的参考价值。


2022年,在NLP领域,哪些技术场景最值得关注?为了回答这个问题,在本次 DataFun 举办的自然语言处理峰会上,我们邀请了NLP领域的领衔专家和学者,共同精选了大模型预训练、自然语言生成、多模态理解、人机对话与交互、信息抽取与检索、产业创新与实践、机器翻译与同传等7大技术场景,探讨自然语言处理相关技术的最新成果和发展趋势,并分享NLP技术的应用现状和实践经验。

2022年07月30日,DataFunSummit 2022:自然语言处理峰会,将全程直播,欢迎广大自然语言处理从业者与爱好者届时收看~

识别二维码,即可免费注册报名:

▌峰会日程

▌具体安排

▌详细介绍

O 峰会主席

黄非 达摩院 研究员

个人介绍:黄非博士,阿里巴巴达摩院语言技术实验室研究员,自然语言基础技术和对话问答方向负责人。他领导AliNLP 基础技术和对话问答技术方向,并支持集团内外的业务需求,在深度语言模型,多模态问答和机器阅读理解方面做出了世界领先的研究成果。团队打造的AliceMind预训练语言模型体系发布了大规模中文预训练模型PLUG并开源模型和代码,图文问答(VQA)和机器阅读理解(MRC)任务上首次超越人类。他带领的NLP研究团队发表顶会论文上百篇,获得国际比赛冠军20多次,开发了业界第一个电商直播翻译系统 。相关技术和产品在阿里巴巴集团内支持数百个场景日均数万亿级调用,对外赋能多个行业合作伙伴,包括医疗,政务,海关,能源,金融等。加入达摩院之前,他曾在卡耐基梅隆大学攻读博士,之后在IBM Watson和Facebook领导并从事NLP研究等工作。他领导开发的Facebook自动翻译系统为全球20亿用户沟通消除语言障碍。他在人工智能顶级会议和期刊发表文章60+篇,中美专利20项,曾担任ACL,AACL等学术会议领域主席等。

孙宇 百度 杰出研发架构师,文心大模型ERNIE总技术负责人

个人介绍:孙宇,百度杰出架构师、百度文心大模型ERNIE总技术负责人。主要研究领域包括自然语言理解、预训练模型、深度学习、信息检索等。主导研发了知识增强大模型文心ERNIE、百度搜索引擎关键核心技术语义匹配等,相关成果广泛应用于搜索引擎、信息流、智能音箱等产品,显著改善亿万网民用户体验。取得包括全球规模最大的语义评测SemEval等评测世界冠军十余项,在ACL、AAAI等会议发表论文数十篇,国内外相关专利七十余项。曾获国家技术发明二等奖、世界人工智能大会最高奖项 SAIL 奖、中国人工智能学会优秀科技成果奖、中国电子学会科技进步一等奖等奖项、百度最高奖和百度最佳团队奖。

武威 美团自然语言处理中心负责人

个人介绍:武威,现任美团自然语言处理中心负责人。他和他的团队在知识图谱、预训练、人机对话、以及自然语言理解等技术方向持续深耕,并将这些技术应用于美团搜索、推荐、在线广告、智能客服等场景。在加入美团前,武威于2012年至2020年就职于微软(中国)有限公司,历任副研究员,研究员,主管研究员,首席科学家。在微软期间,他致力于智能人机对话前沿算法的研究,在对话上下文理解,对话生成,低资源对话建模,知识对话模型方面做出了很多开创性的工作,为微软的聊天机器人产品微软小冰的每一代升级贡献了核心算法,并于EMNLP 2018,TheWebConf 2019,以及SIGIR 2019上做主题为深度学习下的智能聊天机器人的报告。武威本科和博士均毕业于北京大学数学科学学院。他是IEEE高级会员,在国际顶级会议期刊上发表了超过60篇论文,在Google Scholar上有超过2600次的引用,H-index是25。他常年担任自然语言处理(ACL、EMNLP、NAACL)、人工智能(AAAI、IJCAI)、机器学习(ICML、NeurIPS、ICLR)、信息检索(SIGIR、TheWebConf)、以及数据挖掘(KDD、WSDM)等国际顶级会议的程序委员,并受邀担任了ACL 2021,EMNLP 2021,NLPCC 2021的领域主席。

O 特邀荣誉主席:

周明 澜舟科技创始人兼CEO

个人介绍:周明博士,澜舟科技创始人兼CEO。周明博士是世界顶级人工智能科学家,是自然语言处理领域的代表性人物,曾任微软亚洲研究院副院长、国际计算语言学学会(ACL)主席,现任中国计算机学会(CCF)副理事长、中国中文信息学会常务理事、创新工场首席科学家。他还担任多所高校的博士生导师。他在自然语言处理领域发表的文章数量居世界前列。

O 峰会荣誉主席团:

何径舟 百度 自然语言处理部 技术总监

个人介绍:何径舟,百度深圳研发中心自然语言处理部技术总监,飞桨螺旋桨 PaddleHelix 生物计算平台负责人,国家人工智能专业高级工程师。何径舟毕业于北京大学计算机系,有 10 年以上人工智能技术研发和管理经验,主要研究领域包括自然语言处理、机器学习、生物计算、智能机器人等,带领团队夺得十余项国际比赛和权威榜单冠军,4 次斩获百度最高奖。何径舟是 200 余项 AI 专利发明人,曾获中国专利优秀奖,受聘中国专利审查技术专家。何径舟也是中国人工智能学会(CAAI)会员,中文信息学会(CIPS)青年工作委员会委员,香港人工智能与机器人学会(HKSAIR)会员,深圳国家高技术产业创新中心专家。

邱锡鹏 复旦大学 教授

个人介绍:邱锡鹏,复旦大学计算机学院教授,国家优青获得者,于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,发表CCF A/B类论文70余篇,获得ACL 2017杰出论文奖(CCF A类)、CCL 2019最佳论文奖、《中国科学:技术科学》2021年度高影响力论文奖,有4篇论文入选PaperDigest发布的IJCAI/ACL/EMNLP的最有影响力论文(各会议每年10篇)。出版开源专著《神经网络与深度学习》,Github关注数1.5万,豆瓣评分9.4分。主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程项目,2018年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2020获第四届上海高校青年教师教学竞赛优等奖,2021年获首届上海市计算机学会教学成果奖一等奖(第一完成人)等。培养学生多次获得一级学会优博、微软学者、百度奖学金等。

郭伟东 腾讯 信服线 AI算法中心负责人

个人介绍:2012年硕士毕业于北京理工大学,后加入百度从事自然语言处理研究工作,负责NLP基础工具建设,以及内容理解相关工作。于2017年加入腾讯,目前任腾讯信服线 AI算法中心负责人。

① 大规模预训练及应用

出品人:王金刚 美团 NLP中心 高级算法专家

个人介绍:王金刚,博士,中文信息学会青工委委员,美团 NLP 中心高级算法专家。研究方向为自然语言处理,在 TKDE、SIGIR、AAAI、IJCAI、ACL、EMNLP 等顶级期刊和会议上发表 20 余篇论文;2016 年毕业后加入阿里巴巴,任职于搜索事业部,达摩院机器智能技术实验室 NLP 团队及机器翻译团队,先后参与智能问答、文本摘要和机器翻译等方向工作。2018 年加入美团 NLP 中心,负责美团预训练平台建设工作。

王奇凡 Meta AI Senior Staff Research Scientist

个人介绍:王奇凡目前是Meta AI的一名资深科学家,领导一个AI团队构建创新的深度学习和自然语言处理模型。在加入Meta之前,他曾在Google Research担任资深科学家,专注于深度领域表示和大规模对象理解。王奇凡于2015年获得普渡大学计算机科学博士学位。在此之前,他获得了清华大学计算机科学硕士学位和学士学位。他的研究兴趣包括深度学习、自然语言处理、信息检索、数据挖掘和计算机视觉。他在 SIGKDD、SIGIR、WWW、NeurIPS、IJCAI、AAAI、ACL、EMNLP、WSDM、CIKM、ECCV、TPAMI、TKDE 和 TOIS 等顶级会议和期刊上共同撰写了50多篇论文,并担任学术会议和期刊的区域主席、程序委员会成员、编辑委员会成员和审稿人。

演讲主题:结构化和长序列中的信息抽取及其应用

演讲提纲:信息抽取是指从输入数据中识别目标信息的任务。它是一个重要的研究课题,在信息检索和NLP领域得到了广泛的研究。现有的信息提取方法有两个主要限制:可扩展性和灵活性。大多数现有方法独立提取不同的信息并为每个信息构建单独的模型,这不适用于现实世界应用中的大规模信息提取系统。此外,非常有限的研究集中在结构数据的信息提取上,其中输入可以来自具有不同模式的不同来源。在这项工作中,我们提出了一种扩展变压器容量 (ETC) 以处理结构和长序列输入的创新模型。我们基于 ETC 设计了两个新模型,以展示该模型在属性值提取和网页提取两个下游应用中的有效性。我们对几个基准数据集进行了广泛的实验。结果表明,所提出的方法优于几种最先进的方法,具有很大的优势。

听众收益:

1. 结构化和高效率的Transformer模型

2. 如何把现有的高效Transformer模型应用到信息抽取的场景

3. 如何对结构化的数据进行深度建模

严明 达摩院 高级算法专家

个人介绍:严明,博士毕业于中科院自动化所,2016年加入阿里巴巴达摩院机器智能实验室自然语言智能团队,现为团队多模态基础技术负责人,并负责相关技术的业务落地。主要研究方向为机器阅读理解、预训练语言模型与多模态内容理解。在SQuAD/GLUE/MSMARCO/VQA等10多个国际赛事中取得第一,并在上述4个国际顶级赛事榜单取得超越人类的结果。参与打造的AliceMind语言模型体系入围2021年世界人工智能大会最高奖SAIL奖Top30,并获得达摩院最高荣誉奖项达摩院项目团队奖。

演讲主题:多模态预训练技术及在电商领域的应用

演讲提纲:

1. 简介/背景

2. 多模态预训练技术

3. 多模态电商场景应用

4. 总结

听众收益:

1. 如何持续提升多模态图文预训练算法效果?

2. 如何将多模态预训练技术有效应用于多个电商业务?

王玮 达摩院 算法专家

个人介绍:王玮,阿里巴巴达摩院语言技术实验室算法专家,北京邮电大学硕士。目前负责大规模语言模型的研发和落地应用。研究兴趣包括机器阅读理解,预训练语言模型等。提出的SLQA/StructBERT/PLUG等模型曾在SQuAD/GLUE/CLUE等NLP领域顶级benchmark中多次登顶。在ACL/EMNLP/ICLR等会议中累计发表论文十余篇。

演讲主题:STRONGHOLD:Fast and Affordable Billion-scale Deep Learning Model Training

听众收益:

1. 快速、便宜地训练百亿参数级别超大模型

2. 至多6.5倍参数规模提升,至多3.7倍吞吐量提升

秦禹嘉 清华大学 博士研究生

个人介绍:秦禹嘉,本科毕业于清华大学电子工程系,目前是清华大学计算机系二年级直博生,师从刘知远副教授,研究方向为预训练语言模型,曾在ICLR,ACL,NAACL等会议发表多篇一作论文。

演讲主题:预训练语言模型知识继承

演讲提纲:最近针对大规模预训练语言模型 (PLM) 的研究发现,越大规模的模型通常会取得越好的下游任务效果,这掀起了一波训练越来越大的 PLM 的浪潮。然而,训练大规模 PLM 需要大量的计算资源,既耗时又昂贵。此外,现有的大规模 PLM 大多是从头开始单独训练的,而忽略了许多已经训练完成的 PLM 的可复用性。为此,我们重点探讨了一个加速预训练的问题,即如何利用已经训练的 PLM 帮助未来训练更大的 PLM。具体来说,我们提出了一个名为“知识继承”(KI)的预训练框架,并探讨了知识蒸馏、参数复用等方法如何在预训练期间提升 PLM 的训练效率。

听众收益:

1. 如何提升预训练语言模型的训练效率

2. 如何实现高效的模型间知识迁移

3. 如何持续高效地学习新领域知识

杨扬 美团 算法专家

个人介绍:杨扬,美团NLP中心预训练组算法专家,东南大学计算机系硕士毕业。主要研究方向为预训练语言模型及情感分析。2019年加入美团,负责预训练模型压缩的研究和应用,现已在美团搜索、推荐、广告、智能客服等多个业务线落地。多篇论文发表于SIGIR/EMNLP/NAACL等顶级会议上。

演讲主题:预训练语言模型压缩及美团落地实践

演讲提纲:随着预训练模型规模越来越大,如何针对大规模的预训练模型进行压缩使其能够上线部署成为了一个亟待解决的难题。本次分享的主题为预训练语言模型压缩及美团落地实践,分别介绍面向高压缩比场景的预训练模型压缩、面向语义匹配场景的双塔蒸馏以及在美团的落地实践。

1. 预训练模型落地应用挑战

2. 面向高压缩比需求的模型压缩方法及应用

3. 面向语义匹配场景的双塔蒸馏方法及应用

4. 总结与展望

听众收益:

1. 如何进行预训练语言模型的压缩?

2. 如何面向高压缩比需求进行预训练模型压缩?

3. 如何面向语义匹配场景进行双塔模型的蒸馏?

刘佳祥 百度 资深研发工程师

个人介绍:我是百度资深研发工程师,专注于语义表示与计算方面的研究,目前负责百度 ERNIE 基础策略的研发工作。在语义表示、模型压缩、语义匹配等领域有多年的研究经验,并负责相关工作在百度搜索等核心产品的应用落地。曾获得过百度最高奖,国际自然语言处理定级赛事 GLUE 、SuperGLUE 国际赛事冠军,在权威语义理解赛事 SEMEVAL 连续 3 年冠军,拥有多项相关专利。

演讲主题:大模型与小模型联动及落地

演讲提纲:

1. 简介/背景

2. 大模型小模型互动技术

3. 大模型落地案例

4. 总结

听众收益:

1. 大模型时代小模型的价值如何?

2. 大模型落地过程中,小模型能起到什么作用?

② 自然语言生成

出品人:黄松芳 达摩院 资深算法专家

个人介绍:黄松芳,英国爱丁堡大学博士,阿里巴巴达摩院资深算法专家,阿里巴巴AliceMind大模型团队负责人,负责超大规模跨模态预训练模型的技术研发和行业应用,带领团队研发了通用大模型PLUG、多模态mPLUG、多语言VECO、生成式PALM、结构化StructuralLM等,在近10个国际比赛和榜单中获得第一,在机器视觉问答VQA任务上首次超越人类结果。AliceMind开放平台日均调用量超百亿次服务阿里巴巴业务场景。团队工作多次被人民日报、新华网、科技日报、中国电子报等媒体报道。加入阿里巴巴之前,曾在IBM研究院工作。

齐家兴 NVIDIA 高级解决方案架构师

个人介绍:齐家兴,德国亚琛工业大学博士,目前于英伟达企业解决方案部门担任高级架构师,多年来从事自然语言处理和语音识别等方向研究,助力多家企业基于 GPU 平台实现高效易用的训练和推理平台。他是英伟达 NeMo,Riva 语音识别训练推理平台的中文模型开发者之一。

演讲主题:英伟达在自然语言生成领域的最新研究进展

演讲提纲:

1. 如何借助对话历史来控制对话系统的回复风格?

2. 如何将文本超链接转化为知识源来提升回复质量?

3. 如何合成数据以帮助训练问答系统模型?

听众收益:近年来,基于自然语言生成模型的端到端对话系统成为业界的研究热点之一。如何生成高质量,拟真,个性化的回复仍然是一项挑战。本报告将介绍英伟达将自然语言生成技术应用于对话系统和问答系统的最新研究成果。

李晨亮 达摩院 高级算法工程师

个人介绍:李晨亮,现为阿里巴巴达摩院高级算法工程师。2019年硕士毕业于北京邮电大学。主要研究方向为自然语言处理,包括预训练语言模型、文本生成、多模态等。曾经在相关领域顶级会议如ACL、EMNLP、AAAI等发表多篇相关论文。参与多个国际评测和比赛,在生成、结构化、多模态的相关评测榜单上达到第一,并在多模态VQA榜单上首次超越人类水平。

演讲主题:纯文本和多模态生成预训练技术及其应用

演讲提纲:

1. 纯文本生成预训练模型PALM 2.0

2. 多模态生成预训练技术

3. 预训练生成模型的业务应用

听众收益:

1. 如何通过预训练任务减小预训练和下游任务的gap?

2. 多模态生成预训练和纯文本生成预训练有哪些不同?

3. 生成模型在工业上有哪些应用场景?

王硕寰 百度 资深研发工程师

个人介绍:王硕寰,百度自然语言处理部资深研发工程师,目前工作集中在文心大模型ERNIE的技术研发与应用,所研究的成果在AAAI、ACL、EMNLP发表论文多篇,申请国内外专利100余项,曾在GLUE、SuperGLUE、XTREME、SemEval等国际权威评测获得10余项冠军。相关工作荣获世界人工智能大会最高荣誉SAIL奖、中国人工智能学会优秀成果、百度最高奖等奖项。

演讲主题:基于文心大模型 ERNIE 的自然语言生成

演讲提纲:

1. 文心大模型 ERNIE 的技术原理与最新进展

2. 文心大模型 ERNIE 平台及其在自然语言生成中的应用

3. 自然语言生成的挑战与未来

听众收益:

1. 了解文心大模型 ERNIE 的最新技术进展

2. 了解文心大模型 ERNIE 在自然语言生成中的应用案例

3. 了解如何使用文心大模型

刘琦 腾讯 高级研究员

个人介绍:毕业于大连理工大学,研究兴趣包括知识抽取、文本生成、多模态学习、预训练语言模型。在游戏智能创编、信息流内容质量业务场景有丰富的算法实践经验。当前负责游戏短视频AI创作的算法开发和项目落地。

演讲主题:游戏视频创作中自然语言生成的应用

演讲提纲:

1. 背景介绍

1.1 项目背景

1.2 业务价值和难点

2. 解决方案

2.1 短视频创作整体流程

2.2 智能文案生成整体框架

3. 文案生成模型&改进方法

3.1 自然语言生成方法介绍

3.2 技术选型&模型优化

4. 业务应用效果展示

5. 总结与展望

听众收益:

1. 自然语言生成最新研究方法有哪些?

2. 自然语言生成中多模态到文本如何结合业务技术选型?

3. 跨模态检索技术在文本生成中的应用探索。

4. 视频创作中生成技术的应用实践经验。

刘明童 澜舟科技 高级研究员

个人介绍:博士,主要研究方向为自然语言处理,发表会议及期刊论文30余篇,目前担任澜舟科技高级研究员,负责机器翻译、文本生成、智能客服等项目的研发与落地,有着丰富的科研落地实践经验。

演讲主题:基于预训练语言模型的可控文本生成研究与应用

演讲提纲:近年来,基于 Transformer 和自监督学习的预训练语言模型具有良好的泛化能力,在长文本生成和可控文本生成方面取得了较好的效果,引起学术界和工业界越来越多的关注。本报告将重点介绍这一领域取得的一些进展和面临的主要挑战,并介绍澜舟在可控文本生成方面的一些探索。

听众收益:

1. 智能文本生成的关键技术与挑战

2. 如何提高长文本生成的质量

3. 澜舟科技在长文本生成落地方面的实践经验

安晨鑫 复旦大学 硕士研究生

个人介绍:复旦大学自然语言处理实验室硕士研究生。此前在于2020年在复旦大学获得学士学位。导师为邱锡鹏教授。研究兴趣包括自动文本摘要(text summarization),机器翻译(machine translation)以及非自回归生成(non-autoregressive generation)。

演讲主题:基于对比学习的文本生成方法

演讲提纲:目前基于transformer的序列到序列模型已经成为学术界和工业界主流的文本生成框架。但是基于最大似然估计训练的生成模型往往会遇到一个老生常谈的曝光偏差问题(exposure bias)导致了模型在训练和预测阶段并不是特别的匹配。在本次报告中我们讨论一种新的缓解这种问题的策略--对比学习。通过将模型曝光到错误的序列并使用对比学习的损失函数区分这些序列,提升模型在预测阶段的范化能力。但是在通用文本生成上的对比学习方法仍在探索阶段。我们主要就三个方面讨论如何设计一个好的文本生成上的对比学习框架。第一,如何在文本生成的场景下构造质量最够高的正负样本。第二,合适的对比学习损失函数形式。第三,对比学习场景下的解码算法。我们针对以上三个问题提出了一个新的基于对比学习的文本生成框架。实验表明我们在10个数据集,5个生成任务上包括机器翻译,文本摘要,代码注释生成,结构化数据到自然语言生成以及常识生成都取得了非常好的效果。并在其中一些数据集上取得了最新的State-of-the-art。

听众收益:

1. 如何缓解生成模型上的“曝光偏差问题” ?

2. 设计一个通用的对比学习生成框架需要注意些什么问题 ?

3. 正负样本的设计对于对比学习至关重要,在文本生成场景下我们该采取什么样的策略?

4. 在对比学习的框架下应该采取什么样的推理方法?

③ 多模态理解与应用

出品人:胡瀚 微软亚洲研究院 principal research manager

个人介绍:Bio: Han Hu is currently a principal researcher and research manager in Microsoft Research Asia (MSRA), and an adjunct ph. D. advisor at Xi'an Jiaotong University. His main research interests include visual architecture design, self-supervised representation learning, and visual-language representation learning. His paper Swin Transformer won the ICCV 2021 Best Paper Award (Marr Prize) and is now widely used in academia and industry. He received his Ph. D. and bachelor's degrees from Tsinghua University in 2014 and 2008, respectively. His Ph. D. dissertation received Excellent Doctoral Dissertation Award of Chinese Association of Artificial Intelligence (CAAI). He visited the University of Pennsylvania for half a year in 2012 and worked in Institute of Deep Learning (IDL), Baidu Research, between 2014 and 2016. He served as an area chair for CVPR2021 and CVPR2022.

陈栋 微软亚洲研究院 高级研究经理

个人介绍:陈栋,微软亚洲研究院视觉计算组高级研究经理。他的团队从事图像生成、换脸鉴别等相关研究,同时还从事对抗生成网络,去噪扩散概率模型等图像合成模型研究。在CVPR/ICCV/ECCV等国际会议中发表论文50余篇。持有专利5项。多项研究工作已用于微软公司的各种产品中,例如Microsoft Cognitive Services,Windows Hello人脸解锁等。

演讲主题:基于VQ-Diffusion的文本到图像合成

演讲提纲:我们提出了基于VQ-Diffusion的文本到图像合成模型。该方法基于VQ-VAE模型,其隐空间由去噪扩散概率模型 (DDPM) 的条件变体建模。我们发现这种隐空间方法非常适合文本到图像合成任务,因为它不仅消除了现有方法的单向关注偏差,而且还允许我们结合掩码和替换扩散策略来避免累积错误。我们的实验表明,与具有相似参数量的传统自回归 (AR) 模型相比,VQ-Diffusion 产生了明显更好的文本到图像生成结果。此外VQ-Diffusion 使我们能够在质量和速度之间取得更好的平衡。我们的实验表明, VQ-Diffusion 模型比传统的 AR 方法快 15 倍,同时获得了更好的图像质量。

听众收益:

1. Diffusion 能超越 GAN,成为下一代图像生成技术吗?

2. AI 能像人一样自由创作吗?

3. 文本到图像合成有哪些技术难点?

冷海涛 达摩院 高级算法工程师

个人介绍:毕业于哈工大,校招入职阿里。参与建设了阿里小蜜,虚拟主播等项目。现在主要负责数字人互动中的多模态感知能力。

演讲主题:多模态预训练模型的轻量适配技术探索

演讲提纲:

1. 多模态预训练大模型发展现状与实际应用中的挑战

2. 语言适配:大模型在中文场景的适配

3. 领域适配:大模型在电商领域的适配

4. 任务适配:大模型在小样本下游任务的适配

听众收益:

1. 了解多模态大模型在实际应用中的挑战

2. 了解多模态大模型适配到特定场景的相关技术,包括adapter learning,prompt learning

王红法 腾讯 专家研究员

个人介绍:王红法,腾讯广告多媒体AI中心应用算法负责人,专家研究员,专注于计算机视觉技术研究与应用。2013年加入腾讯,目前负责多媒体技术在腾讯广告场景全链路中的研究与应用。主导完成文字识别、图像分析、视频理解等多项技术研究,连续三届在ICDAR竞赛中取得14项冠军,并推动相关技术在广告创作、广告审核、广告推荐场景中落地取得积极商业价值。

演讲主题:AI 大模型技术研究

演讲提纲:预训练 AI 大模型当前是工业界与学术界的研究热点,相较于小模型而言,它具备精度高、通用性强等诸多优点。本次汇报将主要包括两方面的内容:

1. 当前业界的AI大模型进展

2. 腾讯自研的混元AI大模型技术解密;

听众收益:

1. AI 大模型是什么

2. AI 大模型的业界进展

3. 腾讯混元 AI 大模型是什么

王建峰 微软 Principal Researcher

个人介绍:I am a Principal Researcher at Microsoft Cloud & AI and focus on large-scale multimodal representation learning recently. I have broad research interest, including computer vision, e.g. image classification and object detection, and vision-language intelligence, e.g. vision-language pretraining and visual question answering. I received the B.Eng. degree and PhD degree from the University of Science and Technology of China (USTC) in 2015 and 2020, respectively.

演讲主题:一个图像到文本的生成模型以及在多模态领域的应用

演讲提纲:In this talk, I will present our recent work of a Generative Image-to-text Transformer, GIT, to unify vision-language tasks such as image/video captioning and question answering. In GIT, the architecture consists of only one image encoder and one text decoder under a single language modeling task. We scale up the pre-training data and the model size to boost the model performance. Without bells and whistles, the GIT model establishes new state of the arts on 12 challenging benchmarks with a large margin. For instance, the model surpasses the human performance for the first time on TextCaps (138.2 vs. 125.5 in CIDEr). Furthermore, we present a new scheme of generation-based image classification and scene text recognition, achieving decent performance on standard benchmarks.

听众收益:

1. a simple structure can achieve strong performance with large-scale vision-language pretraining.

2. the model achieves human parity for the first time on TextCaps.

3. a captioning model can also conduct image classification without pre-defined vocabulary.

邓亚峰 碳硅智慧 创始人 & CEO

个人介绍:清华大学人工智能相关专业毕业,近二十年人工智能算法及产品研发经验,累计申请发明专利130余项(已授权98项),带领团队在FRVT、LFW、FDDB、OGB-Wiki、Flick30k-CN、COCO-CN、PRCV等国际国内主流人工智能竞赛或评测中获得过一流成绩。曾任360集团副总裁、人工智能研究院院长兼搜索事业部总经理(管理400人左右的产品技术团队),曾任科创版第一家人工智能上市公司格灵深瞳CTO,作为百度深度学习研究院早期员工,是国内最早一批应用深度学习技术的专家之一;拥有亿级用户互联网产品研发管理经验,人工智能软硬件产品研发管理经验,带领团队在计算机视觉、多模态大模型、知识图谱、机器人、智能搜索等领域都做出过创新成果或先进产品;获得2021年中国人工智能年度十大风云人物称号,曾担任中国图形图像学学会常务理事,北京人工智能产业联盟副理事长,大数据分析与应用技术国家工程实验室-多媒体大数据分析中心主任。现任碳硅智慧科技发展有限公司创始人CEO,致力于用人工智能技术赋能生命科学领域。

演讲主题:Zero and R2D2: A Large-scale Chinese Cross-modal Benchmark and A Vision-Language Framework

演讲提纲:中文图文跨模态表示任务,是一个学术上非常活跃,同时在应用方面也非常有价值的研究领域。讲者将主要介绍360人工智能研究院、清华大学、360搜索团队合作的一个中文图文跨模态表示框架R2D2,该框架相对最经典的CLIP双塔框架,借鉴搜索推荐领域常用的粗排精排模型,提出一种新的结合双塔和单塔表示的模型框架。该模型相对之前SOTA,在训练数据仅有几十分之一的设置下,在大部分任务上已经超越SOTA,在2.5亿训练数据的设置下,更是全面大幅超越SOTA。特别是在零样本任务上,相对此前的 SOTA,在 Flickr30k-CN 数据集上,R@M 提升到 85.6%(提升了 4.7%),在 COCO-CN 数据集上,R@M 提升到 80.5%(提升了 5.4%),在 MUGE 数据集上,R@M 提升到 69.5%(提升了 6.3%)。上述模型,都已经开源。此外,我们还开源了一个既包括2300万优质预训练数据又包括多个下游任务数据的开源评测标准数据集Zero,供领域研究人员使用。

听众收益:

1. 一个完全公开的高质量两千万量级的图文跨模态数据集

2. 一个完全超越CLIP框架的双塔+单塔模型

3. 一个开源的2.5亿高质量数据训练的中文图文跨模态模型,在Zero Shot任务中显著超越SOTA

文石磊 字节跳动 智能创作视觉技术负责人

演讲主题:多模态技术在智能创作中的应用

④ 人机对话与交互

出品人:谢剑 百度 主任研发架构师,小度算法团队技术负责人

个人介绍:谢剑,百度主任研发架构师,现小度算法团队负责人。10年+持续深耕自然语言处理、搜索、推荐、广告、对话等大规模机器学习系统,曾负责过百度凤巢、商业知心、多模搜索等系统的核心算法,国内外专利三十多篇,EMNLP/AAAI 等论文多篇,带领团队研发出家喻户晓的小度智能助手,其中技术曾获得 DSTC10 相关对话比赛世界第一。

孙叔琦 百度 主任研发架构师

个人介绍:孙叔琦,主任研发架构师,百度智能对话平台UNIT技术负责人。2014年获哈尔滨工业大学博士学位后加入百度,主要研究方向包括自然语言处理、对话系统、词法分析等。

演讲主题:智能对话平台 UNIT 应用与技术解析

演讲提纲:向企业及个人开发者分享对话系统领域的技术及在多个应用场景的落地案例,深度解读UNIT平台技术能力与实践经验。

听众收益:

1. 如何基于平台化产品构建对话系统

2. 平台内置能力如何帮助开发者降本增效

3. 对话系统在不同运行环境的部署考量

杨振宇 OPPO 小布智能中心 高级技术总监

个人介绍:杨振宇,OPPO小布智能中心认知计算技术负责人,深圳市高层次人才计划入选者,于中国科学技术大学获得计算机学士和博士学位。近年来主要从事自然语言处理、对话式AI相关算法研究与落地应用工作。2015年之前任教于国防科学技术大学,学术论文代表作单篇他引超过800次,入选ESI Top 0.1%热点论文。所从事科研工作曾获高等院校(科学技术)科技进步二等奖1次、湖南省科技进步二等奖2次。2015年后加入工业界,专注于对话式AI关键算法技术研发与落地,2018年加入OPPO主导NLP与对话算法工作,帮助公司级战略产品小布助手实现从零到月活过亿的突破。

演讲主题:OPPO 对话式 AI 助手小布演进之路

演讲提纲:

1. AI助手的发展与思考

2. 小布的诞生与演进

3. 小布之建技能

4. 小布之反智障

5. 小布之懂用户

6. 未来展望

听众收益:

1. 亿级月活 AI 助手小布的演进之路

2. 大规模工业化场景下 AI 助手的技术实践经验

3. 对于 AI 助手未来的思考与展望

李永彬 达摩院 资深算法专家

个人介绍:李永彬,毕业于清华大学,阿里巴巴达摩院资深算法专家,研究方向为Conversational AI & NLP,近年来围绕预训练对话模型、任务型对话、TableQA、KBQA、文档问答、多模态对话等方向发表多篇ACL/EMNLP/AAAI/SIGIR/KDD等顶会论文。疫情期间打造了国内最大的疫情外呼机器人公益平台,获人民网""人民战疫""一等奖。其作为创始成员打造了阿里云智能客服(云小蜜),自2019年以来一直排名中国对话式AI云服务市场份额第一。

演讲主题:达摩院 SPACE 对话大模型:知识注入与知识利用

听众收益:

1. 预训练语言模型 vs 预训练对话模型的区别

2. 如何向大规模预训练对话模型注入知识

3. 半监督预训练 SPACE 模型:一种新的知识注入方式

4. 如何高效利用大规模预训练模型中的知识

吴文权 百度 主任研发架构师

个人介绍:吴文权,计算机硕士研究生,13年入职百度自然语言处理部,致力于开放域对话前瞻技术研发和应用,曾获百度最高奖。

演讲主题:百度文心 PLATO 开放域对话技术

演讲提纲:开放域对话技术是自然预处理领域极具挑战的人机对话技术,百度研发的文心 PLATO 是全球领先的开放域对话大模型,具备多轮流畅的聊天能力,本次演讲内容包括以下内容:

1. 开放域对话技术简介

2. 文心 PLATO 技术介绍

3. 文心 PLATO 应用介绍

听众收益:

1. 开放域对话大模型如何实现

2. 开放域对话大模型有哪些挑战

3. 开放域对话大模型应用场景有哪些

张帆 小米 高级算法工程师

个人介绍:本硕博毕业于武汉大学,曾在阿里巴巴人工智能实验室-天猫精灵,负责语音助手中的NLP相关算法开发。目前在小米小爱同学负责语音助手中的 NLP 相关算法开发。

演讲主题:语音助手中的 NLP 技术应用与研究

演讲提纲:本次分享主要从语音助手出发,介绍其背后常见流程,并分享自然语言理解算法在其中的应用与研究。针对小爱同学复杂的对话场景和用户数据规模,介绍多轮对话框架的建设,离线模型量化的技术,以及如何通过自学习方式搭建语义自标注系统。

听众收益:

1. 语音助手背后的基本框架

2. 多轮对话基本框架

3. 模型量化

⑤ 信息抽取与检索

出品人:冯仕堃 百度 主任架构师

个人介绍:冯仕堃,百度主任架构师,毕业于中国科学院自动化所,负责语义表示、图学习、智能文档理解等方向,研发成果广泛应用于搜索引擎、信息流、智能音箱、地图等产品,显著改善亿万网民用户体验。取得包括大数据权威比赛KDD CUP、国际权威通用语言理解评估基准GLUE、SuperGLUE、全球规模最大的语义评测SemEval、文档理解权威榜单DocVQA等评测世界冠军十余项, 在CVPR、AAAI、IJCAI等人工智能顶级国际会议发表多篇高水平学术论文,相关论文被Paper Digest评为AAAI 2020最具影响力的学术论文之一,拥有四十余项国内外技术专利,荣获2021中国优秀专利奖。荣获世界人工智能大会最高奖项 SAIL 奖、中国人工智能学会优秀科技成果奖和2次百度最高奖。

蒋海云 腾讯 高级研究员

个人介绍:蒋海云,男,2020 年博士毕业于复旦大学数据科学方向,主要研究包括知识图谱、文本理解,自然语言生成等,在 ACL,EMNLP,IJCAI、AAAI、ICDE 等会议发表论文20余篇。

演讲主题:腾讯文本理解系统 TexSmart 中的细粒度实体识别关键技术

演讲提纲:

1. 腾讯文本理解系统 TexSmart 介绍

2. 基于模板和知识挖掘的细粒度识别和分类

3. 基于邻居信息增强的细粒度实体分类

4. 基于多方面联合推断的零资源细粒度实体分类

听众收益:帮助听众了解细粒度实体分类和识别的经典和前言,以及工业界落地的方案。

戴岱 百度 资深研发工程师

个人介绍:戴岱,毕业于中科院自动化研究所,现任百度自然语言处理部资深研发工程师,主要负责内容理解、情感分析、信息抽取等相关工作。

演讲主题:信息抽取统一建模技术及应用

演讲提纲:

1. 信息抽取技术在业务中的定义、划分及意义

2. 封闭式信息抽取统一建模技术

3. 开放式信息抽取统一建模技术

4. 开源通用信息抽取技术及工具 UIE

5. 信息抽取典型业务落地场景

听众收益:

1. 学习信息抽取的基本定义、业务场景及面向的具体问题

2. 学习如何使用统一建模技术,简化信息抽取模型的选型、降低数据标注和定制研发成本

3. 学习开源通用信息抽取工具 UIE 的使用方法

龙定坤 达摩院 高级算法工程师

个人介绍:达摩院自然语言智能实验室高级算法工程师, 硕士毕业于北京航天航天大学。主要从事中文基础词法、文本语义匹配、搜索召回等方向的工作,相关技术服务阿里巴巴集团多个核心业务,带领团队提出的预训练语言模型文本检索方案在 MS MARCO Passage Ranking 任务暂列第一。

演讲主题:预训练语言模型文本检索

演讲提纲:

1. 文本检索&预训练语言模型背景介绍

2. 搜索召回排序预训练

3. MS MARCO Passage Ranking 第一名方案介绍

听众收益:

1. 如何使用预训练语言模型做文本检索

2. 面向文本召回、排序的预训练优化方案

3. MS MARCO Passage Ranking 第一名方案介绍

王楠 Jina AI 联合创始人兼CTO

个人介绍:王楠,Jina AI 联合创始兼 CTO,博士毕业于德国波鸿鲁尔大学。自2009年开始从事深度学习相关研究,之后先后担任德国知名电商 Zalando 高级数据科学家,腾讯高级研究员,在搜索和推荐领域的具有丰富的模型设计、实现和部署经验。专注于机器学习和深度学习算法在 NLP 和搜索领域的实际应用。作为开源神经搜索框架 Jina 的核心贡献者,热衷于开源软件和云原生技术。

演讲主题:浅谈神经搜索

演讲提纲:

非结构化数据在我们身边无处不在,从每天工作要处理的pdf文档到打发时间看的小视频,从随手拍摄的照片到大红大紫的元宇宙3D模型,我们身边80-90%的数据都是非结构化的。如何对非机构化数据进行搜索正在成为一个越来越重要的问题。

与此同时,深度学习和人工神经网络在过去十几年间取得了有目共睹的进展。各种人工神经网络模型在搜索系统中开始扮演越来越重要的角色,他们也是帮助我们解决非结构化数据搜索问题的关键。通过人工神经网络,我们一方面可以通过预测标签将非结构化数据转化为结构化数据,另一方面可以把非结构化数据转化到向量空间中,在这个空间里,相似的数据聚会在一起,不同的数据分散在不同位置。使用人工神经网络模型的搜索系统,我们称之为神经搜索系统。

但是从0开始搭建一个完整的神经搜索系统并不简单,开发者通常需要具备深度学习的相关知识,还需要了解如何部署模型,如何搭建分布式服务,如何维护数据库,如何更新模型等等不同的知识。

在Jina AI,我们致力于打造一整套完整的神经搜索生态,帮助开发者用最低的开发成本完成神经搜索系统的搭建。

这套生态包括DocArray, Jina, Finetuner和Jina Hub四个组成部分,其中DocArray提供对非结构化数据进行封装和表示的基本数据类型。基于DocArray,开发者可以快速在本地完成一套神经搜索系统的搭建。Jina提供从本地服务到云端k8s部署的完整功能。在搭建过程中,开发者通常会反复使用相同的模块,Jina Hub为开发者提供即插即用的预制模块,并且也是开发者进行模块分享的平台。在向量计算的步骤,预训练模型往往不能够满足实际应用中的精度需求,finetuner通过封装常用的深度学习框架和提供搜索场景常用的微调任务,实现几行命令即可完成模型在任务领域的微调适配。

Jina AI提供的整个生态系统全面拥抱开源社区,目前已经有超过200多位小伙伴为Jina社区贡献代码,社区里更有2000多位小伙伴参与讨论。我们希望可以帮助越来越多的开发者了解神经搜索并使用神经搜索解决实际问题,也希望能够有越来越多的开发者加入到我们社区,为开源软件和神经搜索的添砖加瓦。

听众收益:

1. 神经搜索系统的现状和挑战

2. 了解 JinaAI 全家桶

伍艺 百度 算法工程师

个人介绍:从事过 LTR、相关性、异构排序等相关工作。

演讲主题:语义模型在搜索中的应用

⑥ NLP产业创新与实践

出品人:刘建荣 达摩院 产品总监

个人介绍:阿里巴巴达摩院机器智能产品负责人。

杨宝嵩 达摩院 算法专家

个人介绍:杨宝嵩在阿里巴巴达摩院翻译团队担任算法专家。他本硕博分别就读于四川大学、日本早稻田大学、以及澳门大学。他在机器翻译、自然语言处理领域探索近10年,在顶级国际学术会议和期刊如 ACL、EMNLP、AAAI 等发表论文超30篇,并在这些顶级会议担任审稿人、领域主席等职务。2020年加入阿里巴巴后,他持续探索如何改进机器翻译技术,助力跨境电商产业,目前是阿里翻译算法团队翻译方向负责人。

演讲主题:机器翻译在跨境电商的应用与研究

演讲提纲:

1 阿里翻译介绍

1.1 平台概览

1.2技术创新

2 翻译助力跨境电商

2.1 商品文本翻译

2.2 买卖家沟通

2.3 图片

2.4 直播

3 最新技术探索与应用

3.1 基础模型改进

3.2 翻译质量评估

3.3 领域适应

3.4 知识融合

3.5 翻译个性化

听众收益:

1. 机器翻译如何助力跨境电商?

2. 阿里翻译应用了哪些前沿技术?

3. 阿里翻译有哪些技术创新?

王龙跃 腾讯 AI Lab 资深研究员

个人介绍:王龙跃,博士,腾讯人工智能实验室资深研究员。2018年于都柏林城市大学获计算机应用专业博士学位,欧洲机器翻译学会2018年最佳博士论文奖获得者。其主要从事机器翻译、篇章分析等自然语言处理方向的研究,在Neurocomputing、ICLR、ACL等国际期刊和会议上发表论文四十余篇,累计申请相关专利五十项。参加国际学术比赛十余次,其中获得国际机器翻译比赛六项冠军。担任2021腾讯AI Lab犀牛鸟专项研究计划项目负责人,中文信息学会青年工作委员会委员。此外在知名期刊和会议中担任编委会成员、领域主席和审稿人。

演讲主题:基于网文场景的篇章翻译研究与落地

演讲提纲:本报告围绕我们机器翻译系统在网络文学翻译中遇到的实际问题展开,重点介绍在篇章翻译中的技术积累和最新成果感知两个方面介绍我们自研方法。

听众收益:近年来,网络文学成为中国文化出海的新亮点。由于人工翻译效率无法满足海量网文,业界开始探索更高效的自动翻译方案。另一方面,网文具有丰富文学特性和语言学现象,这给翻译模型带来的极大挑战。因此,基于网文场景的自动翻译同时具有应用价值和研究价值。本报告围绕我们机器翻译系统在网络文学翻译中遇到的实际问题展开,重点介绍如何利用自研的篇章技术打造网文翻译系统,此外还会介绍我们最新的研究成果。

谢朋峻 达摩院 高级算法专家

个人介绍:谢朋峻,达摩院语言技术实验室高级算法专家,2012年南京大学硕士毕业后加入阿里,先后在淘宝搜索、电商知识图谱、达摩院NLP等团队工作10年。主要工作领域包括词法分析、信息抽取、信息检索、大数据数据挖掘等。目前在达摩院负责基础词法、语义匹配的技术研发和产品落地。同时是阿里云智能搜索产品、地址分析产品算法负责人。在ACL、EMNLP、NAACL等会议发表论文20余篇。

演讲主题:基于预训练模型的行业搜索应用和研究

听众收益:

1. TO B 和 TO C 搜索的区别是什么

2. 预训练语言模型在搜索哪些链路发挥价值

3. 行业搜索场景有哪些

徐海 海管家 VP

个人介绍:海管家联合创始人,主要负责产品创新。

演讲主题:AI 加持报关行业转型

演讲提纲:

1. 公司介绍

2. 报关的本质与难点

3. AI 与报关

4. 行业对技术的需求

姚聪 达摩院 资深算法专家

个人介绍:姚聪博士,拥有华中科技大学学士和博士学位,从事计算机视觉方向的研究,主要专业领域为自然场景OCR和文档AI。现担任阿里巴巴达摩院语言技术实验室OCR团队负责人,主持基础文字检测识别、多模态文档理解等技术的研究和应用。曾在旷视科技负责云服务业务相关视觉算法的研发工作。在人工智能和计算机视觉领域的著名期刊TPAMI、IJCV、TIP以及顶级会议CVPR、ICCV、ECCV、AAAI等上发表学术论文20余篇,论文总引用量超过10000(根据Google Scholar)。

演讲主题:文档智能技术应用与研究

演讲提纲:

1. 文档智能技术平台建设

2. 文档智能关键技术研究

3. 文档智能产业应用案例

4. 文档智能技术未来展望

听众收益:

1. 如何建设领先的文档智能技术平台?

2. 文档智能涉及到哪些前沿技术?

3. 文档智能有哪些产业应用案例?

⑦ 机器翻译与同传

出品人:黄国平 腾讯 AI Lab 高级研究员

个人介绍:黄国平,博士,腾讯 AI Lab 高级研究员,毕业于中国科学院自动化研究所,研究方向为机器翻译、自然语言处理。长年专注于人机交互式机器翻译的研究与应用,在 ACL、AAAI、IJCAI 等人工智能领域顶级会议与 TASP 等顶级期刊发表论文 20 余篇。

韩林涛 北京语言大学 教师

个人介绍:韩林涛 – 任教于北京语

以上是关于NLP领域的最新研究进展的主要内容,如果未能解决你的问题,请参考以下文章

神经网络并不是尚方宝剑,我们需要正视深度 NLP 模型的泛化问题

NLPprogress.com-随时跟进自然语言处理研究最新进展,34个NLP任务的数据模型论文与代码

谷歌出品NLP最新进展 -《高效自然语言处理技术发展综述》免费pdf分享

LMU「自然语言处理现代方法」最新书,176页pdf概述NLP进展

2021最新深度学习自然语言处理模型及原理细节汇编

Sebastian Ruder : NLP 领域知名博主博士论文面向自然语言处理的神经网络迁移学习