谷歌算法研究员:我为什么钟爱PyTorch?
Posted t198520
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了谷歌算法研究员:我为什么钟爱PyTorch?相关的知识,希望对你有一定的参考价值。
老铁们好!我是一名前谷歌的算法研究员,处理深度学习相关项目已有三年经验,接下来会在平台上给大家分享一些深度学习,计算机视觉和统计机器学习的心得体会,当然了内推简历一定是收的。
这篇文章,不想说太多学术的东西,和大家简单谈一谈深度学习框架的选择,这几年在辅导的过程中,见过了太多同学在无意义的事情上浪费了太多精力,而如果第一个demo始终无法顺利跑动,这无疑是非常fraustrated的。
1. 操作系统
这个是最好说明的,使用Ubuntu或是OS系统,在笔者看来Windows本身的设计逻辑使得它非常不适合进行希望得到快速反馈的行为。而Unix-base的模型可以对输入进行快速应答,而且Windows的注册表文件实在是非常反人类。考虑到Mac的高昂成本,那么笔者实际上是在推荐Ubuntu,win本下载vmware使用Ubuntu虚拟机即可,如有需要可在评论提出,会给出Ubuntu的相关安装和配置说明。
2. 深度学习框架
笔者接触过不少的深度学习框架,也就是说,放弃过很多框架。在工作中踩的坑,有些现在回想起来,依然没法解决。
最早使用的是Caffe,如果是有过一些工作经验的AI从业者,一定对这个名字记忆犹新,早期几乎所有的classic模型都是caffe-base的,而且它的可读性很好,在进行了一定的基础学习后,可以轻松理解模型。但是caffe最大的缺点在于,它的安装较其他的框架而言更加繁琐,配置起来很麻烦,甚至出现过公司里所有做object detection的实习生都要使用同一台服务器跑模型,因为他们自己的电脑上都有着各种各样的错误提示,而且mentor们也看不出来问题。
从使用的广度来看,谷歌公司给出的TensorFlow在这几年独占鳌头,它使用的静态图是一种很有趣的思路,我们知道,在进行一系列的运算时一定有办法可以将步骤和计算损耗进行简化。
现在我们手上有一个长度为n的向量,记为(x1,x2,...xn)(x_1, x_2, ...x_n)(x1?,x2?,...xn?)。现在在某个模型中需要对模型进行缩放之后的加和,巧合的是缩放系数是1nfrac{1}{n}n
pip install torch
即可完成PyTorch的安装工作,除此之外FAIR的大学霸们还贴心的帮我们完成了很多经典模型的搭建,都存在torchvision库里了,通过
pip install torchvision
即可完成。深度学习很多时候都像是搭积木,通过torchvision可以快速将已有的模型作为模块添加到整体中。
如果使用OS系统进行具有CUDA支持的PyTorch安装,则需要如下指令:
export CMAKE_PREFIX_PATH=[anaconda root directory]
conda install numpy pyyaml mkl mkl-include setuptools cmake cffi typing
接下来进行源码安装
git clone --recursive https://github.com/pytorch/pytorch
cd pytorch
MACOSX_DEPLOYMENT_TARGET=10.9 CC=clang CXX=clang++ python setup.py install
接下来就尽情享受PyTorch的快乐吧!!
最近有很多的老铁跟我说:什么时候分享人工智能的TensorFlow框架深度学习、CNN卷积神经网络、解析几何、线性代数等等技术点的文章。
这方面的学习资料我倒是整理出来了,但是发文章,我想说老铁们我这要发到猴年马月呀!每个人的 “口味” 都不一样。
最后我给大家创建一个能够领取这些知识点的公众号!!
前一百个名额可以免费领取!!!先到先得。。。
以上是关于谷歌算法研究员:我为什么钟爱PyTorch?的主要内容,如果未能解决你的问题,请参考以下文章
学不动了!476个PyTorch资源大合集推荐,GitHub超过3600星
AI大事件 | 谷歌发布Cloud AutoML,PyTorch2017年总结,巨大神经网络适应内存方法