神经网络基础

Posted Google-boy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了神经网络基础相关的知识,希望对你有一定的参考价值。

2.1 二分分类

  在一个二分分类问题中,结果是一个离散值的输出。

  例如: 猫 VS 不是猫

  这个目标是训练出一个分类器,输入是一个由特征向量x表示的图片,并且预测相关的标签y是1或者是0.这这个样例中,y是1表示是关于猫的图片(0表示非猫的图片)。

  图片在计算机中存储在三个独立的矩阵中,表示图片中红、绿、蓝三色的像素值。这三个矩阵有相同的大小,例如,这张猫的图片的分辨率是64pixeis*64pixeis,这三个矩阵的(RGB)都是64*64的。

每一个单元的值表示像素的强度,像素的强度可以被用来构造一个n维的特征向量。在模式识别和机器学习中,一个特征向量表示一个对象,在本案例中,表示一只猫或者不是。

为构建一个特征向量x,对于每种颜色像素强度值将被展开重塑。输入特征向量x的维度是Nx = 64*64*3 = 12 288

 

2.2  logistic 回归

逻辑回顾是一个学习算法,当输出y是0或者1时被用在监督学习问题中。逻辑回归的目标是在预测和训练数据中最小化误差。

例如: 猫VS非猫

给定一个特征向量x表示一个图片,这个算法将去评估这张图片是一只猫的概率。

逻辑回归用的参数:

  • 输出特征向量:,而Nx表示特征向量的数量。
  • 训练的标签:{0,1}。
  • ,而Nx山师特征个数
  • 线程数:
  • 输出:
  • sigmoid函数:

    是一个线性函数(ax+b),但是因为我们是要寻找一个在[0,1]之间的约束的概率,因此我们使用sigmoid函数。如上图函数的取值介于[0,1]之间。

    从图中我们可以观察到:

  •  如果z是一个较大的正样例,则

  •  如果z是一个较小或者较大的负样例,则

  •  如果z=0,则

     

     2.3 逻辑回归之cost函数

   为了训练参数w和b,我们需要定义cost函数。

  概括如下;

  

  loss(error)函数:

  loss函数估量的是预测值和期望输出值之间的差异。换句话说,loss函数也就是衡量单一训练样例的(或者说算法)效果。

       

  cost函数:

  cost函数是全部训练数据集的loss函数的平均估计。我们将查找出全部cost函数最小的那个对应的参数w和b,也就是说cost函数用于衡量参数w和b的效果。

  

 

2.4 梯度下降法

   如何使用梯度下降法来训练或学习训练集上的参数w和b,使得cost函数J(w,b)尽可能小的w和b呢?

  在全部训练集上,这里我们所要做的就是找到这样的w和b,使其对应的cost函数zhi使最小值。

  概述:

  损失函数:

  

  代价函数:

  

 代价函数被定义为1/m的损失函数之和, 每一个训练样例都有一个输出表示实际的输出值,与基本知识值标签进行比较,等号右边对公式进行展开。要是J(w,b)最小化,这里我们所要做的就是找到这样的w和b,使其对应的cost函数zhi使最小值。下面我们一下梯度下降法:

 

  图中横纵轴分别表示w和b,在实践中w可能是更高维度的。曲面的高度表示的就是cost函数的值,我们可以看到cost函数J是一个凸函数。它的好处就不用多费口舌了哈哈。。

 

 2.9逻辑回归中的梯度下降

回顾:

    

以上是关于神经网络基础的主要内容,如果未能解决你的问题,请参考以下文章

BP神经网络的梳理

BP神经网络的梳理

常见神经网络类型之前馈型神经网络

第三代神经网络 SNN--脉冲神经网络

预测 一般都有哪些方法 神经网络

人工神经网络综述