深度学习框架PyTorch为何值得学

Posted 大数据文摘

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度学习框架PyTorch为何值得学相关的知识,希望对你有一定的参考价值。

大数据文摘授权转载自OReillyAI


大家知道,深度学习的发展和推进,在某种程度上也是一场框架的争夺战,其中 Google 发布的 TensorFlow 和 Facebook 主力支持的 PyTorch 是最耀眼的两颗明星。我们今天就来看看其中一位明星 PyTorch,看看它为何值得学。


简单介绍


深度学习框架PyTorch为何值得学PyTorch 强调从研究到生产。来源:https://pytorch.org/


根据官网介绍,PyTorch 是一个开源的深度学习平台,提供从研究原型到生产部署的无缝路径(An open source deep learning platform that provides a seamless path from research prototyping to production deployment)。


PyTorch 的流行度仅次于 TensorFlow。而最近一年,在 GitHub 关注度和贡献者的增长方面,PyTorch 跟 TensorFlow 基本持平。甚至,PyTorch 的搜索热度持续上涨,加上 FastAI 的加持,PyTorch 无疑会得到越来越多的机器学习从业者的青睐。


流行度虽然可以说明问题,但是,你一定要知道更多,才能明白 PyTorch 为什么值得学,你在什么情况下需要学习  PyTorch 。


PyTorch 关键发展节点


2017 年 1 月,Facebook AI 研究团队发布 PyTorch,一个基于 Torch 的 Python 工具包,专门用于 GPU 加速的深度学习编程。


2017 年 8 月,PyTorch V 0.2.0 发布,引入广播、高级索引、高阶梯度、新图层,以及分布式训练等,前两者进一步方便了 Tensor 与 Numpy 互转。


2018 年 4 月,Caffe2 代码合并到 PyTorch。Facebook 打算将 PyTorch 的研究特性与 Caffe2 的生产特性更好地结合起来。


2018 年 4 月,PyTorch V 0.4.0 发布,新特性包括 Tensor 和 Variable 合并,强化 Numpy 风格的 Tensor 构建等,并正式支持 Windows 系统。


2018 年 10 月,PyTorch V 1.0.0 发布,融合 PyTorch 自身灵活性、研究优势与 Caffe2 的后端与应用能力、ONNX 的框架转换能力于一体;同时 FastAI V1.0 发布,可用单一 API 玩转常见深度学习应用,大大降低了深度学习的学习门槛。


2019 年 5 月,PyTorch V 1.1 发布,提供了新的 API,原生支持 TensorBoard 和自定义循环神经网络,并提升了性能。


PyTorch 刚走过了 2 年 4 个月的时间,发展相当迅速。


深度学习框架PyTorch为何值得学

PyTorch 当前稳定版及相关配置。来源:https://pytorch.org/


受欢迎程度


Jeff Hale 4 月份在 Medium 上发表了一篇文章,比较了 TensorFlow、PyTorch、keras 和 FastAI 的流行度,全面涵盖职位需求、使用、学术研究和兴趣等维度。


Jeff 根据多个招聘网站在线职位搜索、Google Trends、GitHub 活跃度、Arxiv 文章数、Medium 文章数、Quora 相关问题关注人数统计计算出了一个综合的增长分数。我们这里引用一下最终结果图片:

深度学习框架PyTorch为何值得学

深度学习框架半年增长分数。(2018 年 10 月-2019 年 3 月)


可以看到 TensorFlow 稳居第一,而 PyTorch 表现也非常抢眼,未来的需求和发展非常值得期待。


PyTorch 核心优势:动态计算图


PyTorch  是一款强大的动态计算图模式的深度学习框架。大部分框架是静态计算图模式,其应用模型在运行之前就已经确定了,而 PyTorch 支持在运行过程中根据运行参数动态改变应用模型。


可以简单理解为:一种是先定义后使用,另一种是边使用边定义。动态计算图模式是 PyTorch 的天然优势之一,Google 今年 3 月份发布的 TensorFlow 2.0 Alpha 版本中的 Eager Execution,被认为是在动态计算图模式上追赶 PyTorch 的举措。


静态计算图模式框架在执行计算图之前需要先声明和编译。 虽然在实际生产中这种实现比较高效,但在研究和开发中非常繁琐。


以 PyTorch 为代表的动态计算图框架则无需在每次执行之前编译模型。在建模 NLP 任务时,每个输入都可能导致不同的图结构,因此动态图就绝对占优了——这也是 PyTorch 在处理很多问题上(尤其是 RNN 相关问题)更高效的原因。


此外,动态图机制在调试方面非常方便,基本上,如果计算图运行出错,就可以在堆栈跟踪定义图的代码行。有人形容调试  PyTorch 就跟调试 Python 一样,通过断点检查就可以高效解决问题。


PyTorch 更多优势

  • 无缝接入 Python 生态圈,张量、变量与 Numpy 互转

  • 在张量之上封装变量,方便构建神经网络

  • 强大的后端功能

  • 命令式编程风格

  • 扩展性极好

  • 广泛应用于 NLP 之外的多种深度学习应用

  • 富有活力的社区和背后大厂 Facebook 支持

  • ......


深入了解与使用 PyTorch


如果你想深入细致了解使用 PyTorch 快速高效地构建深度学习模型,那么——


资深数据科学家 Rich Ott 在O’Reilly主办的 AI  Conference 2019 北京站上主讲的「PyTorch 深度学习」课程值得学习,学习时间为期两天,具体为 6 月 18 日 ~ 6 月 19 日。


有志于将来投身人工智能领域的 Python 开发者、Python 数据分析师,以及想进一步深入理解 PyTorch 的机器学习工程师、算法工程师,不要错过这次与国外资深专业人士一起学习的机会。


深度学习框架PyTorch为何值得学

导师:Richard Ott


The Data Incubator 数据科学家,热爱数据科学,并致力于数据知识的传播与教学。曾在 Verizon 担任数据科学家和软件工程师。麻省理工学院粒子物理学博士,加州大学戴维斯分校博士后。


学习内容

  • 学习 PyTorch 张量和自动求导包

  • 多种 PyTorch 深度学习模型架构

  • 使用真实数据集构建和训练深度神经网络


前置知识

  • 基本的 Python 知识

  • 简单的矩阵和线性代数知识

  • 建模和机器学习基础

  • 神经网络基础


课程大纲


6 月 18 日

  • PyTorch 张量

  • 自动求导包

  • 神经网络

  • 多层感知机


6 月 19 日

  • 神经网络架构

  • 卷积神经网络

  • 自动编码器


参考资料

Natural Language Processing with PyTorch: Build Intelligent Language Applications Using Deep Learning

https://towardsdatascience.com/which-deep-learning-framework-is-growing-fastest-3f77f14aa318

https://www.ibm.com/developerworks/cn/cognitive/library/cc-get-started-pytorch/index.html

https://venturebeat.com/2019/05/01/facebook-launches-pytorch-1-1-with-tensorboard-support/


深度学习框架PyTorch为何值得学

今年6月份,O’Reilly AI Conference携贾扬清、Ion Stoica等一众AI领军者也要来北京啦,届时大数据文摘作为合作媒体会将会为大家带来最新的资讯。另外。目前会议门票正在热卖中,用大数据文摘专属折扣码“WENZHAI”可享八折优惠。


AI Conference部分讲师名单

深度学习框架PyTorch为何值得学



实习/全职编辑记者招聘ing


点「在看」的人都变好看了

以上是关于深度学习框架PyTorch为何值得学的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch为何如此高效好用?来探寻深度学习框架的内部架构

嵌入式学深度学习:1Pytorch框架搭建

PyTorch版《动手学深度学习》开源了,最美DL书遇上最赞DL框架

Pytorch框架书籍推荐:《动?学深度学习PYTORCH版》

PyTorch版《动手学深度学习》开源了,最美DL书遇上最赞DL框架

深度学习之 Keras vs Tensorflow vs Pytorch 三种深度学习框架