text tf.nn.l2_loss和tf.nn.l2_normalize

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了text tf.nn.l2_loss和tf.nn.l2_normalize相关的知识,希望对你有一定的参考价值。

tf.nn.l2_loss形如1/2Σw2,一般用于优化的目标函数中的正则项,防止参数太多复杂容易过拟合。它没有开方并且只取 L2 范数的值的一半。
。具体用法是:
  weight_decay = tf.multiply(tf.nn.l2_loss(weight), weight_decay, name='weight_loss')
  tf.add_to_collection('losses', weight_decay)


tf.nn.l2_normalize(x, dim, epsilon=1e-12, name=None) 是对参数x进行normalize,不是求其损失而是对tensor指定维度做normlize,输出的维度不变。x为输入的向量;dim为l2范化的维数
。

以上是关于text tf.nn.l2_loss和tf.nn.l2_normalize的主要内容,如果未能解决你的问题,请参考以下文章

TensorFlow中的L2正则化函数:tf.nn.l2_loss()与tf.contrib.layers.l2_regularizerd()的用法与异同

tensorflow l2_loss函数

TensorFlow 度量张量和张量或者和零之间的误差值

text tf.nn.zero_fraction

tf第十二讲:TextCNN做文本分类

tf.squeeze和tf.nn.rnn的功能是什么?