tensorflow Relu激活函数

Posted debuggor

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tensorflow Relu激活函数相关的知识,希望对你有一定的参考价值。

1、Relu激活函数

Relu激活函数(The Rectified Linear Unit)表达式为:f(x)=max(0,x)

2、tensorflow实现

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import tensorflow as tf

input_data = tf.constant( [[0, 10, -10],[-1,2,-3]] , dtype = tf.float32 )
output = tf.nn.relu(input_data)
sess=tf.Session()

print(sess.run(output))

输出为:

[[ 0. 10. 0.]
[ 0. 2. 0.]]

 

以上是关于tensorflow Relu激活函数的主要内容,如果未能解决你的问题,请参考以下文章

tensorflow学习-------激活函数(activation function)

Tensorflow中神经网络的激活函数

TensorFlow学习笔记之 PReLU激活函数原理和代码

当我使用 RELU 激活时,为啥我的 TensorFlow 网络权重和成本为 NaN?

Tensorflow激活函数

python 批量标准化,然后在tensorflow中激活ReLU。