线性回归, 逻辑回归与神经网络公式相似点
Posted megachen
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性回归, 逻辑回归与神经网络公式相似点相关的知识,希望对你有一定的参考价值。
线性回归, 逻辑回归与神经网络公式相似点
- 线性回归与逻辑回归
- 线性回归的损失函数
[ J( heta)={1over{2m}}sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})^2 ] - 逻辑回归的损失函数
- [ J( heta)={-1over{m}}[sum_{i=1}^{m}y^{(i)}log(h_ heta(x^{(i)}))+(1-y^{(i)})log(1-h_ heta(x^{(i)}))] ]
- 线性回归的损失函数的梯度
[ {partialover{partial heta_j}}J( heta)=sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})x_j ] - 逻辑回归的损失函数的梯度
[ {partialover{partial heta_j}}J( heta)=sum_{i=1}^{m}(h_ heta(x^{(i)})-y^{(i)})x_j ]
- 线性回归的损失函数
- 逻辑回归与神经网络
- 逻辑回归的损失函数
[ J( heta)={-1over{m}}[sum_{i=1}^{m}y^{(i)}log(h_ heta(x^{(i)}))+(1-y^{(i)})log(1-h_ heta(x^{(i)}))] ] - 神经网络的损失函数
[ J(Theta) = {1over{m}}sum_{i=1}^{m}sum_{k=1}^{K} y_k^{(i)}log(h_Theta(y_k^{(i)})) + (1 - y_k^{(i)})log(1 - h_Theta(y_k^{(i)})) + {lambdaover{2m}}sum_{l}^{L-1}sum_{i=1}^{s_l}sum_{j=1}^{s_{l+1}}Theta_{ji}^{l} ]
- 逻辑回归的损失函数
以上是关于线性回归, 逻辑回归与神经网络公式相似点的主要内容,如果未能解决你的问题,请参考以下文章