线性回归, 逻辑回归与神经网络公式相似点

Posted megachen

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性回归, 逻辑回归与神经网络公式相似点相关的知识,希望对你有一定的参考价值。

线性回归, 逻辑回归与神经网络公式相似点

  • 线性回归与逻辑回归
    • 线性回归的损失函数
      [ J( heta)={1over{2m}}sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})^2 ]
    • 逻辑回归的损失函数
    • [ J( heta)={-1over{m}}[sum_{i=1}^{m}y^{(i)}log(h_ heta(x^{(i)}))+(1-y^{(i)})log(1-h_ heta(x^{(i)}))] ]
    • 线性回归的损失函数的梯度
      [ {partialover{partial heta_j}}J( heta)=sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})x_j ]
    • 逻辑回归的损失函数的梯度
      [ {partialover{partial heta_j}}J( heta)=sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})x_j ]
  • 逻辑回归与神经网络
    • 逻辑回归的损失函数
      [ J( heta)={-1over{m}}[sum_{i=1}^{m}y^{(i)}log(h_ heta(x^{(i)}))+(1-y^{(i)})log(1-h_ heta(x^{(i)}))] ]
    • 神经网络的损失函数
      [ J(Theta) = {1over{m}}sum_{i=1}^{m}sum_{k=1}^{K} y_k^{(i)}log(h_Theta(y_k^{(i)})) + (1 - y_k^{(i)})log(1 - h_Theta(y_k^{(i)})) + {lambdaover{2m}}sum_{l}^{L-1}sum_{i=1}^{s_l}sum_{j=1}^{s_{l+1}}Theta_{ji}^{l} ]

以上是关于线性回归, 逻辑回归与神经网络公式相似点的主要内容,如果未能解决你的问题,请参考以下文章

实现逻辑回归-神经网络

逻辑回归和SVM的区别是啥?

6.逻辑归回

感知机(Perceptron)

逻辑回归 算法推导与基于Python的实现详解

机器学习算法 --- 逻辑回归及梯度下降