TensorFlow学习_Activation_function

Posted alexhaiy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了TensorFlow学习_Activation_function相关的知识,希望对你有一定的参考价值。

感觉今天进度有点快啊: )

 1 # -*- coding:UTF8 -*-
 2 
 3 import tensorflow as tf
 4 import numpy as np
 5 import matplotlib.pyplot as plt
 6 
 7 #创建输入数据
 8 x = np.linspace(-10,10,100)
 9 
10 #Activation_function的实现
11 def sigmoid(inputs):
12     for x in inputs:
13         y = 1 / (1 + np.exp(-x))
14         return y
15 
16 def relu(inputs):
17     for x in inputs:
18         if x > 0:
19             y = x
20         else:
21             y = 0
22         return y
23 
24 def tanh(inputs):
25     for x in inputs:
26         y = (np.exp(x) - np.exp(-x)) / float(np.exp(x) + np.exp(-x))
27         return y
28 
29 def softplus(inputs):
30     for x in inputs:
31         y = np.log(1 + np.exp(x))
32         return y
33 
34 #经过tensorflow的激活函数处理的各个Y值
35 y_sigmoid = tf.nn.sigmoid(x)
36 y_relu = tf.nn.relu(x)
37 y_tanh = tf.nn.tanh(x)
38 y_softplus = tf.nn.softplus(x)
39 
40 #创建会话
41 sess = tf.Session()
42 
43 #运行
44 y_sigmoid, y_relu, y_tanh, y_softplus = sess.run([y_sigmoid, y_relu, y_tanh, y_softplus])
45 
46 plt.subplot(221)
47 plt.plot(x, y_sigmoid)
48 plt.title(sigmoid)
49 
50 plt.subplot(222)
51 plt.plot(x, y_relu)
52 plt.title(relu)
53 
54 plt.subplot(223)
55 plt.plot(x, y_tanh)
56 plt.title(tanh)
57 
58 plt.subplot(224)
59 plt.plot(x, y_softplus)
60 plt.title(softplus)
61 
62 plt.show()
63 
64 #关闭会话
65 sess.close()
66 
67 #sess.close()放在最后
68 #之前放在创建窗口下面,直接导致无法打开会话窗口

函数定义那一块,我是直接按照公式写的,不知道是否存在什么问题!

欢迎大家来指正!

 

以上是关于TensorFlow学习_Activation_function的主要内容,如果未能解决你的问题,请参考以下文章

深度学习_1_Tensorflow_2_数据_文件读取

《TensorFlow实战Google深度学习框架(第2版)》+《TensorFlow实战_黄文坚》

『TensorFlow』第四弹_classification分类学习_拨云见日

TensorFlow学习_

tensorflow学习资料

TensorFlow------学习篇