关于深度学习框架Hamaa与Python API文档生成工具Sophon

Posted 人工智能LeadAI

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了关于深度学习框架Hamaa与Python API文档生成工具Sophon相关的知识,希望对你有一定的参考价值。

五月两场 | NVIDIA DLI 深度学习入门课程

5月19日/5月26日
一天密集式学习  快速带你入门
>


正文共1988个字,预计阅读时间12分钟。


前言


最近三个月我主要花时间在造一个轮子:深度学习库 Hamaa。



关于Hamaa的诞生


Hamaa源自于我当初的一个小想法。


当时我学习Deep Learning已有两个月,看了很多论文、教程与博客,于是尝试着去阅读Keras的源代码来学习别人是怎么实现的,尤其是back propagation这一块。


但是Keras的backend使用的是Theano/TensorFlow,这两个深度学习库都是“符号主义”派,这意味着神经网络的求导是自动的(autograd)。


所以最后还是决定硬啃论文和数学公式来重现,写着写着发现代码越来越多,添加一个网络层动辄就要修改数十行代码。突然某一天想到,为什么不学习Keras的API设计呢?于是在不断的重构中逐渐实现了模块化,也就有了现在的Hamaa。


Hamaa吸收了许多开源深度学习库的设计理念,比如Keras的API,Caffe的Blob/Layer/Net/Solver架构,TensorFlow/Theano的Operator求导机制(Hamaa中为手动实现Operator的forward/backward以实现自动求导)等等。


而我很高兴地说,在实现Hamaa的过程中,我深入了解与学习到了以下几点:


1、彻底弄懂了神经网络中全连接层、激活层、卷积层、池化层的backpropagation过程及其向量化(vectorization)实现。


2、了解到了softmax输出层为什么通常配合cross entropy损失函数以及negative log likelihood优化方法一起使用。


  • 了解到了神经网络权重初始化的原因与各种方法。

  • 学会了梯度下降法(Stochastic Gradient Descent)优化方法中,learning rate、momentum与decay参数对收敛速度与收敛稳定性的影响。

  • 有了一定的CNN调参经验。

  • 学会了卷积计算的加速方法: im2col与col2im。

  • 了解到TensorFlow的NHWC数据格式与Theano的NCHW数据格式之间的差异性。

  • 弄懂了在训练卷积神经网络时影响速度与内存的因素。

  • 学会了如何编写Python C Extension。

  • 学会使用以下工具链来发布一个完整的库:

    • Readthedocs:文档托管

    • Travis-CI:集成测试托管

    • Codecov:代码覆盖率统计托管

    • Sphinx:用reStructuredText写文档

    • MkDocs:用Markdown写文档

    • distutils:编译Python扩展

    • setuptools:分发包

    • nose:测试

    • pip:包管理

    • virtualenv:虚拟环境

    • coverage:代码覆盖率统计

    • Python工具:

    • 文档编写工具:

    • GitHub webhook:


鉴于我水平有限,在某些实现上难免会出现不足或错误之处。如果有读者发现了,十分欢迎在GitHub上提出issues或者发邮件到作者邮箱:yy4f5da2(at)hotmail.com。


后记


续会写一些我在造轮子过程中的收获和踩过的一些坑。关于神经网络以及其BP过程网上有很多资料与教程,就不重复了。尽量会介绍更多关于神经网络框架的设计、卷积神经网络中卷积层与池化层的前向计算与后向传播过程公式推导等等。


另外,Hamaa其实已经完成了有一个月了,之所以拖了那么久才介绍是因为:


本来是打算用Sphinx+reStructuredText写API文档的,但是如果用Sphinx+reST写API文档,就意味着和Hamaa的其他Markdown文档有冲突。因为Hamaa的文档目前托管在ReadTheDocs上,而RTD只能要么使用Sphinx要么用MkDocs作为文档引擎。考虑到文档编写、网站外貌(Sphinx很强大,但是他的autodoc功能导出的API文档在RTD主题下实在有点丑),最终选择了MkDocs+Markdown来编写文档。


但是这样又有了另外一个问题,MkDocs没有autodoc功能。如果手动编写,就意味着我要同时保持代码中的注释与API文档中的介绍一致。


综上,纠结了3天之后,决定自己再造一个轮子:Python API文档自动生成工具——Sophon库就此诞生。更多关于Sophon的信息可以看:




原文链接:https://www.jianshu.com/p/b1e1c71c2504


查阅更为简洁方便的分类文章以及最新的课程、产品信息,请移步至全新呈现的“LeadAI学院官网”:

www.leadai.org


大家都在看



以上是关于关于深度学习框架Hamaa与Python API文档生成工具Sophon的主要内容,如果未能解决你的问题,请参考以下文章

API统一干净,适配PyTorchTF,新型EagerPy实现多框架无缝衔接

一个“人工智能Python机器学习与深度学习”课程表

关于深度学习框架 TensorFlowTheano 和 Keras

数据搬运的“诅咒” | 原有深度学习框架的缺陷②

首个完整支持中文文档的深度学习框架——百度PaddlePaddle API文档简介

深度学习框架Keras学习与应用