TensorFlow中random_normal和truncated_normal的区别

Posted lvdongjie

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了TensorFlow中random_normal和truncated_normal的区别相关的知识,希望对你有一定的参考价值。

 

原文链接:https://blog.csdn.net/zhangdongren/article/details/83344048

区别如下:
tf.random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32,seed=None,name=None) 正太分布随机数,均值mean,标准差stddev
tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None) 截断正态分布随机数,均值mean,标准差stddev,不过只保留[mean-2stddev,mean+2stddev]范围内的随机数
那么什么是正太分布呢?
看下面这张图,就是正太分布的直观图:
技术图片

好了看完上面这张图,我们就可以理解什么是random_normal,什么又是truncated_normal了。所谓的random_normal服从正太分布的所有随机数,而truncated_normal仅仅只是截取了正太分布某一个范围的数据并不是全部数据。

////////////////////////////////////////////////////结束线/////////////////////////////////////////////////////////
 

以上是关于TensorFlow中random_normal和truncated_normal的区别的主要内容,如果未能解决你的问题,请参考以下文章

tf.random_normal

tensorflow中用正太分布随机初始化网络权重参数 ---tf.random_normal

tensorflow

tensorflow的save和restore

tensorflow-矩阵乘法

简单神经网络TensorFlow实现