撸一撸 ICML2016的CReLU

Posted 刘二毛

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了撸一撸 ICML2016的CReLU相关的知识,希望对你有一定的参考价值。

此方法来源于:

ICML2016  Understanding and Improving Convolutional Neural Networks via Concatenated Rectified Linear Units.

这篇论文~~

实验代码 :https://github.com/albanie/CReLU

可以在理解原理的基础上撸一遍。

在tensorflow中也集成了这个CRelu,API为:tf.nn.crelu()

论文作者在 AlexNet 的模型上做了一个有趣的实验,发现:低层的卷积层中的一些滤波器核存在着负相关程度很高的滤波器核,而层次越高的卷积层,这一现象越不明显。作者把这一现象称为 pairing phenomenon。这是基础思想。

文中提到一个叫pair filter的概念,定义如下:

设网络的某层卷积层的滤波器组的卷积核组表示为 ϕ⃗ 1,ϕ⃗ 2,,ϕ⃗ n ,定义的 pairing filter 为 ϕ⃗ i=argminϕ⃗ jϕ⃗ i,ϕ⃗ j ,其中 j=1,2,,n n  为该层卷积层的滤波器数目。滤波器  ϕ⃗ i  和  ϕ⃗ i  之间的余弦相似度记为

μϕi


下图中蓝色表示:


计算cos相似度得到统计直方图~~ 

我们看第一卷积层conv1,蓝色的直方图分布以-0.5为中心点,均匀分布,也就是说有较多成对的滤波器。越到后面的层,比如conv5蓝色的直方图分布越集中,成对的滤波器越少.


CReLU是为了消除 ReLU 带来的冗余而提出,设 []+=max撸一撸Spring Cloud Ribbon的原理-负载均衡策略

撸一撸那些一行代码实现的神奇功能

QQ音乐的绝对竞争对手网易云音乐,Sketch撸一撸

撸一撸Spring Cloud Ribbon的原理

来撸一撸Dubbo之SPI机制源码,SPI到底解决了什么问题?

撸一撸多线程的来龙去脉你就知道,为什么面试官折磨喜欢问这种问题了!