简单的多层神经网络实现

Posted

技术标签:

【中文标题】简单的多层神经网络实现【英文标题】:Simple multi layer neural network implementation [closed] 【发布时间】:2013-03-02 00:12:46 【问题描述】:

前段时间,我开始了机器学习的冒险之旅(在我最近 2 年的学习期间)。我读了很多书,写了很多机器学习算法的代码,除了神经网络,这些超出了我的范围。我对这个话题很感兴趣,但是我有一个很大的问题: 我读过的所有书都有两个主要问题:

    包含数学方程式的音调。课后我对它们非常熟悉,而且我可以在纸上手工计算。 包含嵌入在某些复杂上下文中的大示例(例如调查网上商店的销售率),并且要进入神经网络实现,我必须编写大量代码来重现上下文。 缺少什么 - 简单直接的实现,没有大量上下文和方程式。

您能否告诉我,我在哪里可以找到多层感知(神经网络)的简单实现?我不需要理论知识,也不需要上下文嵌入的示例。我更喜欢一些脚本语言来节省时间和精力 - 我以前的工作 99% 都是用 Python 完成的。

这是我以前读过的书(但没有找到我想要的):

    机器学习实战 编程集体智能 机器学习:算法视角 Java 中的神经网络简介 C# 中的神经网络简介

【问题讨论】:

python 是给定的吗?可能,octave 将是更合适的工具来尝试by hand 【参考方案1】:

你试过PyBrain吗?看起来很不错documented。

【讨论】:

嗨!谢谢你的答复。不,我没有尝试过 PyBrain,因为我想一个人做所有的事情:P 我正在寻找一个教程,而不是其他现成的解决方案,即使它有很好的文档记录。但这听起来像是一个计划,如果没有更好的出现:)【参考方案2】:

嗯,这很棘手。我以前也遇到过同样的问题,但我在好的但大量数学负载的解释和准备使用的实现之间找不到任何东西。

即用型 实现(如 PyBrain)的问题在于它们隐藏了细节,因此对学习如何实现 ANN 感兴趣的人需要其他东西。阅读此类解决方案的代码也可能具有挑战性,因为它们经常使用启发式方法来提高性能,这使得初学者更难理解代码。

但是,您可以使用一些资源:

http://msdn.microsoft.com/en-us/magazine/jj658979.aspx

http://itee.uq.edu.au/~cogs2010/cmc/chapters/BackProp/

http://www.codeproject.com/Articles/19323/Image-Recognition-with-Neural-Networks

http://freedelta.free.fr/r/php-code-samples/artificial-intelligence-neural-network-backpropagation/

【讨论】:

【参考方案3】:

这是一个如何使用 numpy 实现前馈神经网络的示例。首先导入 numpy 并指定输入和目标的维度。

import numpy as np

input_dim = 1000
target_dim = 10

我们现在将构建网络结构。正如 Bishop 伟大的“模式识别和机器学习”中所建议的,您可以简单地将 numpy 矩阵的最后一行视为偏置权重,将激活的最后一列视为偏置神经元。那么第一个/最后一个权重矩阵的输入/输出维度需要大 1。

dimensions = [input_dim+1, 500, 500, target_dim+1]

weight_matrices = []
for i in range(len(dimensions)-1):
  weight_matrix = np.ones((dimensions[i], dimensions[i]))
  weight_matrices.append(weight_matrix)

如果您的输入存储在 2d numpy 矩阵中,其中每一行对应一个样本,列对应于样本的属性,您可以像这样通过网络传播:(假设逻辑 sigmoid 函数作为激活函数)

def activate_network(inputs):
  activations = [] # we store the activations for each layer here
  a = np.ones((inputs.shape[0], inputs.shape[1]+1)) #add the bias to the inputs
  a[:,:-1] = inputs

  for w in weight_matrices:
    x = a.dot(w) # sum of weighted inputs
    a = 1. / (1. - np.exp(-x)) # apply logistic sigmoid activation
    a[:,-1] = 1. # bias for the next layer.
    activations.append(a)

  return activations

activations 中的最后一个元素将是您的网络的输出,但请注意,您需要省略额外的偏差列,因此您的输出将是 activations[-1][:,:-1]

要训练网络,您需要实施反向传播,这需要几行额外的代码。基本上,您需要从activations 的最后一个元素循环到第一个元素。确保在每个反向传播步骤之前将每个层的误差信号中的偏差列设置为零。

【讨论】:

【参考方案4】:

Here 是原生 python 中的反向传播算法。

【讨论】:

【参考方案5】:

一个简单的实现

这是一个使用Python 中的类的可读实现。此实现以效率换取可理解性:

    import math
    import random

    BIAS = -1

    """
    To view the structure of the Neural Network, type
    print network_name
    """

    class Neuron:
        def __init__(self, n_inputs ):
            self.n_inputs = n_inputs
            self.set_weights( [random.uniform(0,1) for x in range(0,n_inputs+1)] ) # +1 for bias weight

        def sum(self, inputs ):
            # Does not include the bias
            return sum(val*self.weights[i] for i,val in enumerate(inputs))

        def set_weights(self, weights ):
            self.weights = weights

        def __str__(self):
            return 'Weights: %s, Bias: %s' % ( str(self.weights[:-1]),str(self.weights[-1]) )

    class NeuronLayer:
        def __init__(self, n_neurons, n_inputs):
            self.n_neurons = n_neurons
            self.neurons = [Neuron( n_inputs ) for _ in range(0,self.n_neurons)]

        def __str__(self):
            return 'Layer:\n\t'+'\n\t'.join([str(neuron) for neuron in self.neurons])+''

    class NeuralNetwork:
        def __init__(self, n_inputs, n_outputs, n_neurons_to_hl, n_hidden_layers):
            self.n_inputs = n_inputs
            self.n_outputs = n_outputs
            self.n_hidden_layers = n_hidden_layers
            self.n_neurons_to_hl = n_neurons_to_hl
    
            # Do not touch
            self._create_network()
            self._n_weights = None
            # end

        def _create_network(self):
            if self.n_hidden_layers>0:
                # create the first layer
                self.layers = [NeuronLayer( self.n_neurons_to_hl,self.n_inputs )]
        
                # create hidden layers
                self.layers += [NeuronLayer( self.n_neurons_to_hl,self.n_neurons_to_hl ) for _ in range(0,self.n_hidden_layers)]
        
                # hidden-to-output layer
                self.layers += [NeuronLayer( self.n_outputs,self.n_neurons_to_hl )]
            else:
                # If we don't require hidden layers
                self.layers = [NeuronLayer( self.n_outputs,self.n_inputs )]

        def get_weights(self):
            weights = []
    
            for layer in self.layers:
                for neuron in layer.neurons:
                    weights += neuron.weights
    
            return weights

        @property
        def n_weights(self):
            if not self._n_weights:
                self._n_weights = 0
                for layer in self.layers:
                    for neuron in layer.neurons:
                        self._n_weights += neuron.n_inputs+1 # +1 for bias weight
            return self._n_weights

        def set_weights(self, weights ):
            assert len(weights)==self.n_weights, "Incorrect amount of weights."
    
            stop = 0
            for layer in self.layers:
                for neuron in layer.neurons:
                    start, stop = stop, stop+(neuron.n_inputs+1)
                    neuron.set_weights( weights[start:stop] )
            return self

        def update(self, inputs ):
            assert len(inputs)==self.n_inputs, "Incorrect amount of inputs."
    
            for layer in self.layers:
                outputs = []
                for neuron in layer.neurons:
                    tot = neuron.sum(inputs) + neuron.weights[-1]*BIAS
                    outputs.append( self.sigmoid(tot) )
                inputs = outputs   
            return outputs

        def sigmoid(self, activation,response=1 ):
            # the activation function
            try:
                return 1/(1+math.e**(-activation/response))
            except OverflowError:
                return float("inf")

        def __str__(self):
            return '\n'.join([str(i+1)+' '+str(layer) for i,layer in enumerate(self.layers)])

更高效的实现(带学习)

如果您正在寻找具有学习(反向传播)功能的神经网络的更有效示例,请查看我的 neural network Github repository here。

【讨论】:

update 方法的参数应该是什么?举个例子就好了。 输入值列表。例如:input_values = [1, 0, 0, 1, 0.5] 培训怎么样? 一个真正知道如何编写代码和NAME 变量的人写的例子!!我发现 Github 存储库非常有用。

以上是关于简单的多层神经网络实现的主要内容,如果未能解决你的问题,请参考以下文章

第03课:多层感知机在结构化数据中的应用实现

第03课:多层感知机在结构化数据中的应用实现

python实现多层感知机

python实现多层感知机

搭建最简单的神经网络———从单层到多层

手把手写深度学习:用最简单的神经网络多层感知机识别数字