如何在ANN中设置偏差并将Sigmoid更改为ReLU功能?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何在ANN中设置偏差并将Sigmoid更改为ReLU功能?相关的知识,希望对你有一定的参考价值。
我正在尝试通过人工神经网络创建数据预测模型。以下代码是通过许多书籍创建的基于Python的ANN代码的一部分。此外,预测值和实际值之间的错误率不满足低于19%。我试图增加隐藏层的数量,但它并没有极大地影响错误率。我认为这可能是Sigmoid功能的限制而不是考虑Bias。我环顾了一个月,发现了如何构建ReLU和Bias,但我找不到Bias和ReLU的范围。
Q1 =如何将Sigmoid转换为ReLU和Q2 =如何将偏差添加到我的代码?
Q3 =此外,如果我将Sigmoid更改为ReLU,我是否必须使我的数据集为0.0~1.0范围?这是因为Sigmoid函数接受0.0~1.0范围的数据,但我不知道ReLU允许的范围。
我很遗憾地提出一个基本问题。
class neuralNetwork:
# initialize the neural network
def __init__(self, input_nodes, hidden_nodes, output_nodes, learning_rate):
#
self.inodes = input_nodes
self.hnodes = hidden_nodes
self.onodes = output_nodes
# link weight matrices, wih and who
self.wih = numpy.random.normal(0.0, pow(self.hnodes, -0.5), (self.hnodes, self.inodes))
self.who = numpy.random.normal(0.0, pow(self.onodes, -0.5), (self.onodes, self.hnodes))
# learning rate
self.lr = learning_rate
# activation function is the sigmoid function
self.activation_function = lambda x: scipy.special.expit(x)
pass
# train the neural network
def train(self, inputs_list, targets_list):
# convert inputs list to 2d array
inputs = numpy.array(inputs_list, ndmin=2).T
targets = numpy.array(targets_list, ndmin=2).T
# calculate signals into hidden layer
hidden_inputs = numpy.dot(self.wih, inputs)
# calculate the signals emerging from hidden layer
hidden_outputs = self.activation_function(hidden_inputs)
# calculate signals into final output layer
final_inputs = numpy.dot(self.who, hidden_outputs)
# calculate the signals emerging from final output layer
final_outputs = self.activation_function(final_inputs)
# output layer error is the (target - actual)
output_errors = targets - final_outputs
# hidden layer error is the output_errors, split by weights, recombined at hidden nodes
hidden_errors = numpy.dot(self.who.T, output_errors)
# update the weights for the links between the hidden and output layers
self.who += self.lr*numpy.dot((output_errors*final_outputs*(1.0-final_outputs)), numpy.transpose(hidden_outputs))
# update the weights for the links between the input and output layers
self.wih += self.lr*numpy.dot((hidden_errors*hidden_outputs*(1.0-hidden_outputs)), numpy.transpose(inputs))
pass
# query the neural network
def query(self, inputs_list) :
inputs = numpy.array(inputs_list, ndmin=2).T
# convert hidden list to 2d array
hidden_inputs = numpy.dot(self.wih, inputs)
# calculate signals into hidden layer
hidden_outputs = self.activation_function(hidden_inputs)
final_inputs = numpy.dot(self.who, hidden_outputs)
final_outputs = self.activation_function(final_inputs)
return final_outputs
pass
你的问题太宽泛了,ReLU vs sigmoid背后有很多概念。
但简而言之:
Sigmoid Saturate和杀死渐变(看Gradient descent)sigmoid不是零中心,因为sigmoid的输出是0<output<1
。我可以看到sigmoid你正在使用scipy
,但对于ReLU它很容易。 Relu由以下函数定义
f(x) = max(0,x)
这意味着如果输入大于零返回输入,则返回0.并且ReLU优先用于隐藏层,而其他类似softmax
用于输出层。
我会说,看看不同的激活函数以及为什么我们需要神经网络上的激活函数。 sigmoid如何杀死渐变以及为什么它们会慢慢收敛。
Q1 =如何将Sigmoid转换为ReLU和Q2 =如何将偏差添加到我的代码? 只需根据上面的ReLU函数自行编写方法并更新以下行
self.activation_function = max(0,x) # instead of lambda x: scipy.special.expit(x)
Q3 =此外,如果我将Sigmoid更改为ReLU,我是否必须使我的数据集为0.0~1.0范围?这是因为Sigmoid函数接受0.0~1.0范围的数据,但我不知道ReLU允许的范围。
这个问题的答案取决于您的网络和您的数据,但是您可以规范化数据。并且没有这样的范围,你需要使你的数据。因为对于ReLU:如果input
小于零,它将返回0
,如果input
> = 0,它将返回input
。所以没有像sigmoid这样的范围。 Answer of this question
如果你想看看ReLU如何工作和可以使用,下面的详细示例将有所帮助,尽管这些示例是使用框架(PyTorch)编写的,用于构建网络和训练。
以上是关于如何在ANN中设置偏差并将Sigmoid更改为ReLU功能?的主要内容,如果未能解决你的问题,请参考以下文章