text tf.nn.l2_loss和tf.nn.l2_normalize
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了text tf.nn.l2_loss和tf.nn.l2_normalize相关的知识,希望对你有一定的参考价值。
tf.nn.l2_loss形如1/2Σw2,一般用于优化的目标函数中的正则项,防止参数太多复杂容易过拟合。它没有开方并且只取 L2 范数的值的一半。
。具体用法是:
weight_decay = tf.multiply(tf.nn.l2_loss(weight), weight_decay, name='weight_loss')
tf.add_to_collection('losses', weight_decay)
tf.nn.l2_normalize(x, dim, epsilon=1e-12, name=None) 是对参数x进行normalize,不是求其损失而是对tensor指定维度做normlize,输出的维度不变。x为输入的向量;dim为l2范化的维数
。
以上是关于text tf.nn.l2_loss和tf.nn.l2_normalize的主要内容,如果未能解决你的问题,请参考以下文章
TensorFlow中的L2正则化函数:tf.nn.l2_loss()与tf.contrib.layers.l2_regularizerd()的用法与异同
tensorflow l2_loss函数
TensorFlow 度量张量和张量或者和零之间的误差值
text tf.nn.zero_fraction
tf第十二讲:TextCNN做文本分类
tf.squeeze和tf.nn.rnn的功能是什么?