tensorflow中的dropout

Posted whustczy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tensorflow中的dropout相关的知识,希望对你有一定的参考价值。

  每一个output的值都有prob的概率被保留,如果保留=input/ prob,否则变为0
  dropout相当于一个过滤层,tensorflow不仅丢弃部分input,同时将保留下的部分适量地增加以试图弥补梯度
 1 inputs = tf.reshape(tf.range(40.), (2,4,5))
 2 t = tf.layers.dropout(inputs, rate=0.8, training=True)
 3 with tf.Session() as sess:
 4     print sess.run(inputs)
 5     print sess.run(t)
 6 """
 7 [[[ 0.  1.  2.  3.  4.]
 8   [ 5.  6.  7.  8.  9.]
 9   [10. 11. 12. 13. 14.]
10   [15. 16. 17. 18. 19.]]
11  [[20. 21. 22. 23. 24.]
12   [25. 26. 27. 28. 29.]
13   [30. 31. 32. 33. 34.]
14   [35. 36. 37. 38. 39.]]]
15 [[[  0.   0.  10.  15.   0.]
16   [ 25.   0.  35.   0.  45.]
17   [ 50.   0.  60.  65.   0.]
18   [  0.   0.   0.  90.   0.]]
19  [[  0. 105.   0.   0. 120.]
20   [125.   0.   0.   0.   0.]
21   [  0.   0.   0.   0.   0.]
22   [  0. 180.   0.   0.   0.]]]
23 """

 

以上是关于tensorflow中的dropout的主要内容,如果未能解决你的问题,请参考以下文章

[tf] tensorflow中dropout小坑记录

TensorFlow LSTM Dropout 实现

tensorflow学习之使用dropout解决overfitting(过拟合)问题

tensorflow用dropout解决over fitting-老鱼学tensorflow

使用 TensorFlow 2 将 Dropout 添加到 MobileNet

Tensorflow 2.0|网络优化与参数选择及Dropout抑制过拟合原则