tensorflow Relu激活函数
Posted debuggor
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tensorflow Relu激活函数相关的知识,希望对你有一定的参考价值。
1、Relu激活函数
Relu激活函数(The Rectified Linear Unit)表达式为:f(x)=max(0,x)。
2、tensorflow实现
#!/usr/bin/env python # -*- coding: utf-8 -*- import tensorflow as tf input_data = tf.constant( [[0, 10, -10],[-1,2,-3]] , dtype = tf.float32 ) output = tf.nn.relu(input_data) sess=tf.Session() print(sess.run(output))
输出为:
[[ 0. 10. 0.]
[ 0. 2. 0.]]
以上是关于tensorflow Relu激活函数的主要内容,如果未能解决你的问题,请参考以下文章
tensorflow学习-------激活函数(activation function)
TensorFlow学习笔记之 PReLU激活函数原理和代码