cs231n spring 2017 lecture12 听课笔记

Posted ZonghaoChen

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了cs231n spring 2017 lecture12 听课笔记相关的知识,希望对你有一定的参考价值。

这一节课很零碎。

 

1. 神经网络到底在干嘛?

  浅层的是具体的特征(比如边、角、色块等),高层的更抽象,最后的全连接层是把图片编码成一维向量然后和每一类标签作比较。如果直接把图片和标签做像素级的最近领域分类,误差很大,但是转成编码之后就准多了。

  可以用PCA可视化最后一层的特征,深度学习领域更高阶的做法是用t-SNE(Van der Maaten and Hinton, "Visualizting Data using t-SNE", JMLR 2008)。

  可视化非线性函数的激活值也可以帮助我们理解神经网络(Yosinski et al., "Understanding Neural Networks Through Deep Visualization", ICML DL Workshop 2014.)。

  还有各种各样的把神经网络的中间层提取出来观察,试图分析黑箱的做法。

 

2. 风格迁移

  利用神经网络提取出的抽象特征,可以做一些风格迁移的工作,生成新图片。

以上是关于cs231n spring 2017 lecture12 听课笔记的主要内容,如果未能解决你的问题,请参考以下文章

cs231n spring 2017 lecture9 听课笔记

cs231n spring 2017 lecture3 听课笔记

cs231n spring 2017 lecture7 听课笔记

cs231n spring 2017 lecture4 听课笔记

cs231n spring 2017 lecture8 听课笔记

cs231n spring 2017 lecture12 听课笔记