在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?

Posted 机器之心

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?相关的知识,希望对你有一定的参考价值。

机器之心报道
机器之心编辑部

12 月 6 日,由世界人工智能大会组委会指导,上海市经济和信息化委员会、中国(上海)自由贸易试验区临港新片区管理委员会、上海临港经济发展 (集团) 有限公司主办的「WAIC 开发者·临港人工智能开发者大会」在上海临港开幕。在这场一千多位全球优秀人工智能开发者齐聚的盛会上,多位来自学界和业界的代表分享了他们在开发领域的实践经验。


作为 WAIC 开发者日的重要延续,为期两天的大会围绕开发者关心的话题,设置了主题演讲、公开课、开发者工作坊、黑客马拉松、技术和产业闭门研讨会等环节,为全球优秀的人工智能开发者们提供了一个学术交流、技术探讨和沟通合作的平台。


在 12 月 6 日上午的主题演讲环节, 商汤科技联合创始人兼 CEO 徐立、依图科技联合创始人林晨曦、华为智能计算副总裁/晟腾生态负责人易咏成、谷歌研究科学家/普林斯顿大学计算机科学系教授 Yoram Singer、南京大学人工智能学院教授俞扬 等来自 AI 领域的重磅嘉宾为参会者们分享了不同的技术主题。此外, 华为开源生态主任工程师黄之鹏与领规科技创始人黄康 还进行了一场人工智能新锐开发者对话。


在下午的人工智能开发工作坊环节, 加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授 Stuart Russell、北京大学计算机科学技术系副教授/AI 自动代码补全 aiXcoder 项目负责人李戈、Kaggle Competitions Grandmaster 沈涛、百度 AI 技术生态部高级技术经理谢永康、亚马逊上海人工智能研究院应用科学家/著名开源人工智能系统 MXNet、MinPy 和 DGL 发起人及主要贡献者王敏捷、英伟达开发者社区经理何琨 分享了各自在技术及产业实践中的经验和体会。


机器之心对当日嘉宾演讲及对话的精彩观点进行了整理,以下为内容实录:


商汤科技联合创始人兼 CEO 徐立


商汤科技联合创始人兼 CEO 徐立的分享主题为「人工智能的颠覆式创新」。徐立表示,无论是从当前的产业实践还是从大众生活日常上看,都可以说,人工智能作为颠覆性的创新技术,已经深刻地改变了我们的生活。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?

徐立认为,人工智能是否能够成为颠覆性的技术创新,需要从两个角度观察。首先是技术发展角度,技术的大发展、大跃迁往往是非连续的。从技术变革的大趋势来看,当前这个时代正处于技术大发展大变革的前一个阶段,数据、算力、传感器、存储和算法都出现了井喷式的发展,下一阶段的技术进步将会是非连续的跨越式发展。


另一个角度则是应用成熟度。目前,各种各样的人工智能应用已经在善政、兴业、惠民等多个方面进入到人们的工作和生活中。在演讲中,徐立以商汤在这些场景中完成的相关技术创新和应用研发为例,来说明人工智能技术特别是计算机视觉领域的技术,正在走向成熟阶段。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


依图科技联合创始人 林晨曦


第二位登台的是依图科技联合创始人林晨曦,他的演讲主题是「无与伦比的 AI 时代」。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


林晨曦首先回顾了近年来人工智能技术的发展历程。以人脸识别方面的技术进展为例,林晨曦提到,近年来人工智能技术发展确实进入了一个「无与伦比」的时代。接着,他也介绍中国和美国在人工智能技术上的发展和对比,说明了我国在人工智能技术上仍有潜力,可以弯道超车。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


谈到依图科技在人工智能方面的发力,林晨曦举出了一些案例。例如,依图科技在算法层面,包括计算机视觉、语音识别、声纹识别、自然语言等领域的研究。同时,在应用层面,依图在智慧医疗领域发力,使人工智能儿科医生达到了三年制医生的水平。


林晨曦认为,人工智能普及最重要的关键是智能的密度。从宏观上,单体、单模态的智能会变成多模态、群体的智能,在不同的行业里落地。从微观上来讲,算力的支撑——也就是单位面积智能的算力,是产业前进非常重要的因素。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


在演讲的后半部分,林晨曦介绍了依图在 AI 芯片领域的开发进展,以及视觉计算创新平台的开放计划。依图希望为视觉计算开发者提供更加标准和高效的支持与服务,提升智能芯片、智能算法和智能产品的整体产业能力,助力中国芯片设计业和人工智能的结合。


华为智能计算副总裁/晟腾生态负责人 易咏成


华为智能计算副总裁、晟腾生态负责人易咏成首先回顾了我国在 AI 技术领域的政策和进展。他认为,我国在 AI 应用领域方面已超过所有国家,包括美国。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


但是,在 AI 领域,依然有三个可以看到的现象值得注意。首先,没有人工就没有智能。当前人工智能依赖大量人工标注的情况还没有实现根本改变。其次,算法落地应用依然困难。尽管在实验室中的算法性能达到很高的水平,但在实际应用还没有得到很好的应用。第三,AI 和其他技术的连接依然不充分,AI 和其他技术应用的深度融合将会是潜力巨大的商业机会。


之后,易咏成总结了华为在人工智能领域的一些进展。目前,华为正在与全世界的研究机构联合进行研发,进一步打造全栈方案,构建投资生态。回顾华为的 AI 产品,易咏成重点介绍了华为全场景处理器,包括鲲鹏、昇腾系列和麒麟系列等。在全栈方面,华为进行了从模块到推理卡,到训练卡,到中心的主机的研发工作,以有开发框架和应用的合作伙伴产品的合作,包括在端边缘和云方面,华为也进行了布局。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


最后,易咏成呼吁合作伙伴加入到华为的生态营销活动中,也鼓励开发者加入到昇腾开发者社区。华为使用奖金等方式,鼓励开发者参与。


谷歌研究科学家/普林斯顿大学计算机科学系教授 Yoram Singer


在 WAIC 开发者定制公开课环节,大会请到了谷歌研究科学家、普林斯顿大学计算机科学系教授 Yoram Singer,进行《Re-laying the foundations of effective machine learning》课程分享。


Yoram Singer 从机器学习的应用案例开始,介绍了人工智能的基本原理。他提到,机器学习其实与统计学密切相关,通过一系列的数据输入,神经网络等算法能够拟合数据的分布,并最终发现其中的隐藏规律。


如何让神经网络实现这样的能力?Yoram Singer 介绍了神经网路的架构和原理。神经网络实际上依靠的是类神经元的计算方式。通过带有权重的神经元进行非线性变换的方式,加上多个神经元的深度连接,使得多层的神经网络具有强大的学习能力。


此外,Yoram Singer 也介绍了卷积神经网络的基本原理,以及在图像领域的一些应用。他还提到了自动驾驶,以及机器学习怎样实现自动驾驶的方法。


最后,Singer 教授谈到了如何利用深度学习参与到类似于 TPU 集群计算和加速训练收敛的方法,同时也介绍了一些谷歌在这方面的创新,带给与会者很大的启发。


南京大学人工智能学院教授 俞扬


在主题演讲环节的最后,南京大学人工智能学院教授俞扬为与会嘉宾和开发者带来了在强化学习领域的研究经验分享。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


俞扬介绍说,在我们的生活中,人工智能在两个方面实现了广泛的应用,一是预测和识别,二是决策。这两方面的研究在实际的学科划分上亦有不同。


随后,俞扬介绍了在机器学习领域中强化学习和监督学习这两个技术的不同点,也介绍了强化学习应用于推荐系统的一些案例和方法。之后,俞扬谈到了强化学习在实际应用中可能遇到的问题,以及目前一些可能的解决方法。以淘宝为例,他介绍了推荐系统对用户行为带来的影响,以及强化学习的实际应用存在的困难和解决方法。


除了商品场景外,俞扬同时也介绍了闲鱼砍价、物流等方面的工作。俞扬介绍在这些场景和案例中的方法论,谈到了如何成功应用强化学习的方法。最后,俞扬谈到了为开发者做的工作,包括强化编程和框架等。开发者可以利用这一框架,使得编程和研发算法更加容易。


在上午主题演讲之后,大会还特别策划了「人工智能新锐开发者对话」环节,华为开源生态主任工程师黄之鹏与领规科技创始人黄康围绕「中国自主的 AI 工具包」这一热门话题展开了讨论。


在下午的人工智能开发者工作坊环节,首位分享嘉宾是加州大学伯克利分校人工智能系统中心创始人兼计算机科学专业教授 Stuart Russell,他的分享主题为「Probabilistic Programming」。未来到现场的 Stuart Russell 通过视频分享的方式,与在场开发者分享了自己概率编程语言和人工智能二者关联研究方面的一些心得。


北京大学信息科学技术学院软件研究所副教授、北京大学元培学院 李戈


在 Stuart Russell 之后,北京大学信息科学技术学院软件研究所副教授、北京大学元培学院导师李戈上台进行了演讲。李戈是 AI 自动代码补全工具 aiXcoder 的项目负责人,他分享了程序分析和代码生成领域最近的发展。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


在深度学习时代,自动代码生成方向有了很大进展。「在 aiXcoder 之上,我们希望能够打造一个全部基于深度神经网络的代码引擎,」李戈说道。「代码的处理工具和对自然语言、图像等内容的处理引擎大有不同。」


李戈发现,深度学习在自然语言处理时的典型方式在于树形结构解析,这个方式比传统的 NLP 方法更加精准,并遵循这一思路开发了各种新兴的神经网络。验证了序列模型,图神经网络模型等方法。这一方向的研究并不是一开始就显露出巨大优势的。「在 2017 年,有研究还拿非深度神经网络和深度神经网络的代码生成方法进行了对比,DL 优势不大。」李戈说道。


深度学习兴起之前,人们对于程序语言生成就有了不少思考。一些研究认为,我们完全可以使用已有程序来构造新的程序,但需要研究已有程序应被切割成多大的片段;另一方面,程序语言具有自然语言的特性,但你所定义的程序语言只能在定义之内才具有意义。


这些特性是处理程序语言时人们面临的问题,也为深度学习处理程序带来了有利的条件。把目光拉回到最近,2019 年有一篇论文《Maybe Deep Neural Networks are the Best Choice for Modeling Source Code》已经提出了一种开放词汇神经语言模型,实现了一流的性能,甚至优于专门为代码建模而设计的 Hellendoorn 和 Devanbu 等最新方法。


「通过代码表征模型和深度学习算法,我们可以实现很多功能,」李戈说道。「计算机程序在未来或许可以理解代码内容,避免恶意代码的破坏。」

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


随后,李戈展示了这一工具的优势:因为 aiXcoder 可以进行整行的、连续的推荐,它类似于 Gmail 中的自动续写,仅需写一个开头就可以进行补完。对比其他类似的工具,aiXcoder 仅需输入 1/3 内容即可完成同样任务。今年 3 月,aiXcoder 发布了在线版本,用户仅需下载一个插件就可以在编程工作中使用它。现在这款工具已有注册用户 4 万多人。


「不管是做研究还是做工具,我们的工作都是围绕程序语言进行的。aiXcoder 的背后完全是神经网络,一切代码推荐都是由 AI 来完成的。」李戈说道。


Kaggle Competitions Grandmaster 沈涛


之后为大家分享的是 Kaggle Competitions Grandmster 沈涛。沈涛在 Kaggle 平台上的排名是全球第八,共获得过 10 块金牌。同时他也是一位就职于腾讯 AI Lab 的医疗 AI 算法工程师,曾代表腾讯获得过医疗影像顶会 RSNA 2019 颅内出血检测挑战赛的冠军。这一次挑战赛的经历和成果也是沈涛本次分享的重点。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


在今年的 RSNA 上,RSNA 和 Kaggle 联合推出了颅内出血检测挑战赛,任务是开发一个机器学习算法来识别急性颅内出血及其亚型。从应用层面上说,这对于抢救脑出血病人和病情诊断等方面具有重要意义。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


比赛的难点在于,要求所开发的算法能够在短时间内从超过 3 万个病例的脑部 CT 图像中,找到颅内出血的病变规律,而且这些数据中还存在部分异常的「噪声」标注信息。


在解决本次的 CT 图像任务的过程中,除了 CNN 模型,团队还使用了 Sequence Model,采用了多阶段建模的方式来提升建模效果。在 Base CNN 阶段,提取图像信息;在 Sequence Model 1 阶段,融合多张 CT slice 的空间特征信息;在 Sequence Model 2 阶段,再次整合图像信息、空间融合信息以及图像原始信息。


针对 CT 这种特殊图像数据,团队设置了三种窗宽窗位,分别是 Brain window(40-80)、Subdural window(80-200)、Bone window(600-2800),组成了一种全新的「3 通道图像」进行输入。在训练过程中,团队采取了 5 折交叉检验的策略,从不同的 StudyID 中随机采样,并使用循环学习率,从各个阶段提取不同的特征信息。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


最终,沈涛团队依靠具备「多模型、多阶段、多信息」三个优势的解决方案,获得了挑战赛的冠军,这也是国内团队的首次夺冠。


百度 AI 技术生态部高级技术经理 谢永康


百度 AI 技术生态部高级技术经理谢永康分享了了百度大脑开发平台的一些应用实践,飞桨、EasyDL 和 EasyEdge 都是百度大脑开发平台中的产品,除了讲解技术原理之外,谢永康也用视频为开发者做了现场演示。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


目前,百度大脑开放平台最底层的是飞桨框架,在此之上是面向企业和个人开发者的 AI 开发者的 AI 开发者的 AI 开发平台,包括 EasyDL 和 EasyEdge,在开放能力之上,是面向行业场景落地的各种方案和技术,包括面向企业服务、工业、农业等方向,以及面向私有计算的部署方案。目前,平台已经发布了多达 228 项的能力,拥有了超过 150 万的开发者。


谢永康位在场开发者介绍了四款飞桨开发套件:


ERNIE 是基于(英文)多任务学习预训练的框架,使用多任务学习增量式构建预训练任务,将词法分析、情感分析典型任务的目标函数整合在一起,进行相互分享,从而得到整体效果的提升。


PADDLESEG 则是用于图像语义分割库的开发套件,目前包含了 18 个预训练模型,四大主流图像分割网络,在训练速度 GPU 的利用率、显存占用等维度上明显超过业内同类产品,可广泛应用于工业智能化领域、智能图像处理以及像农业的地块识别场景。


接下来是 PADDLEDETECTION,其主要用于端部署和端计算的优化,在训练速度、训练效果以及每秒的效果上面表现优秀,可广泛应用在智慧交通、安防监控以及商品检索等领域。


最后是基于分布式 CPU 训练的 CTR 预估的模型 ELASTICCTR,它具备了全异步的参数服务器、流式训练以及高性能 IO 这三个技术特点,可以广泛应用在视频、资讯排序和搜索排序的场景当中。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


在百度大脑的建设过程,基于行业需求的定制化 AI 模型和算法也是一个重要问题。为此,百度大脑发布了定制化模型训练和服务平台 EasyDL 和 EasyEdge。在 EasyDL 上,用户所做的只是将数据上传,几乎不需要编写任何一行代码,就可以获得一个定制化的 AI 模型,去解决他们领域定制化的问题。目前,EasyDL 已经上线了经典版、专业版和行业版:经典版和专业版分别提供了定制化图像分类等六个能力方向,行业版则面向行业客户,更加深入地结合行业业务场景去优化模型效果,以及提供对应的业务系统。


EasyEdge 同样具有易上手、低门槛、广适配、一站式体验的产品特点。用户能够把已经在云端、服务端用主流框架训练好的模型,通过 EasyEdge 去进行面向端设备的转换、加速,并且最终提供可以直接部署在端设备上的安装包。


亚马逊上海人工智能研究院应用科学家 王敏捷


随后演讲的是亚马逊上海人工智能研究院应用科学家王敏捷,他也是著名开源人工智能系统 MXNet、MinPy 和 DGL 的发起人及主要贡献者,演讲主题为「深度图学习在人工智能中的探索和研究」。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


演讲伊始,王敏捷首先阐释了何为人工智能,并以 AlphaGo 和 Alexa 语音助手为例说明了人工智能在实际生活中的应用,并抛出了如何衡量人脑与人工智能的差距这一问题。随后,王敏捷介绍了「深度图学习」这一概念,即将深度学习放在图上进行学习,并因此诞生一种新的图神经网络。


他通过自制的图表展示了近年来图神经网络(Graph Neural Network,GNN)在机器学习领域的火爆程度:下图左是 2014 年至 2018 年期间,GNN 论文发表数量的增长趋势;图右是关键词的引用率,其中 GNN 在所有关键词中增长幅度最大。之后,通过一个简单的社交网络,王敏捷向大家解释了图神经网络的定义,即学习点/边/图的特征。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


接下来,王敏捷分别详述了深度图学习在分子医药、知识图谱、推荐系统以及计算机视觉领域和自然语言处理五个领域的应用,并再次抛出了一个问题:传统深度学习框架对深度图学习是否友好?答案是否定的,所以他们提出了专门面向深度图学习的 DGL(Deep Graph Library)人工智能框架。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


演讲的后半部分,王敏捷着重阐述了 DGL 的设计理念、系统架构和卓越的性能表现(支持各种消息传递计算、支持各种消息传递模式和适用于各类场景),并对 DGL 和其他面向深度图学习的工具进行了对比。然后,他向大家展示了 DGL 的几种编程体验、异构图支持、编程接口总结和系统优化(批处理消息传递计算和融合消息传递信息)。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


随着演讲进入尾声,王敏捷向大家分别展示了开源项目 DGL 的成长简史、在工业界和学术界的应用现状、社区互动、性能评测和未来的计划等多方面内容。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


英伟达开发者社区经理 何琨


英伟达开发者社区经理何琨是下午的最后一位演讲者,他的演讲主题是英伟达深度学习推演加速引擎:TensorRT。


演讲开始,何琨向大家展示了英伟达的开发工作内容,其中就包括的 TensorRT。他首先介绍了 TensorRT 是基于 GPU 的推理引擎,然后举例说明完整深度学习解决方案或研发流程,包括样本采集、模型训练和模型部署三个阶段,而 TensorRT 就服务于部署阶段。


何琨表示,英伟达 TensorRT 是一种高性能深度学习推理优化器和运行时加速库,可为深度学习推理应用程序低延迟和高吞吐量。这些都是 TensorRT 的优点。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


接着,何琨向大家展示了 TensorRT 的工作流程,包括输入一个预训练的 FP32 模型和网络,输出时自动优化出一个部署在 GPU 的推理引擎。他表示,在整个流程中不需要再次执行优化步骤。

在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?


在输入训练好的神经网络模型生成可执行推理引擎的过程中有五个步骤,分别是精度校准、层和张量融合、核心自动调整、动态张量内存和多流执行。何琨随后向大家展示了 GoogleNet 中 Inception 结构、垂直融合(Vertical Fusion)、水平融合(Horizontal Fusion)和 Concat Elision 的网络层架构。


接着,何琨详细说明了在实际场景中利用 TensorRT 构建网络和进行加速的八个步骤,分别是创建 Builder、创建 Network、创建 Parser、绑定输入输出以及自定义组件、序列化或反序列化、传输计算数据(host—>device)、执行计算和传输计算结果(device—>host)。其中,何琨还单独讲述了 TensorRT 的架构图。


在人工智能开发者工作坊之后,大会在 12 月 6 日晚上安排了时长为四个小时的黑客马拉松挑战赛,本场挑战赛共设置了三个赛题,分别为「英伟达-基于轮式机器人 Jetbot 的深度学习方法体验」、「AWS DGL 图深度学习大赛」和「谷歌开发者社区智能对话机器人:面向任务的单轮对话之命名实体识别大赛」,从不同应用场景出发,充分结合了工作坊演讲内容与赛题发起方平台工具,为开发者搭建了学习和实践平台。


近两百名开发者参与了这场现场编程竞技活动,最终三个赛场共决出 7 支获奖队伍,获得了现金奖励。


谷歌开发者机器学习方向专家孔晓泉 , 亚马逊应用科学家王敏捷、甘全、周金晶,英伟达 GPU 应用市场总监侯宇涛 , 机器之心创始人、CEO 赵云峰为获奖团队颁发奖金。



文为机器之心报道,转载请联系本公众号获得授权
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com
投稿或寻求报道:content @jiqizhixin.com
广告 & 商务合作:bd@jiqizhixin.com

以上是关于在「WAIC·临港人工智能开发者大会」上,这些大牛都讲了什么?的主要内容,如果未能解决你的问题,请参考以下文章

WAIC | 奇点云携「酷炫AI应用」亮相2019世界人工智能大会

2021 WAIC 世界人工智能大会参会总结

以软硬协同最佳实践构建智能算力,燧原科技WAIC大会上发布云燧智算机

WAIC|高精准低成本,九章云极DataCanvas突破AutoML难题

容联云即将亮相2021WAIC 推进产业数字化转型

容联云在WAIC 2021 发布“容犀机器人” 推进联络中心CC智能化