logistic regression recap

Posted Catch is KING

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了logistic regression recap相关的知识,希望对你有一定的参考价值。

dz=dL/dz=dL/da*da/dz-----》链式法则求导,求微分

da=dL/da=-y/a+(1-y)/(1-a)=(a-y)/a*(1-a)---->求导公式

dw1=dl/dz*dz/dw1=(a-y)*

dJ/dw1=1/m(训练集中求和dw1 )---->训练集求和的平均值作为cost 函数的dw1来使用,update w1的值。

dw1 = dL/dw1=(dL/dz)*(dz/dw1)

由于这其中 吴恩达使用dz=dl/dz所以dw1=dz/dw1*dz=x1*dz---->z=w1*x1+w2*x2+b如上图;

dJ/dw1=1/m(sum of dL/dw1)---->用这个来更新w:=w-a*dw1----》a为学习率

更新b----》J(w,b)的值,最后求到最小的J对应的(w,b)因为为凸的所以是有唯一的最优解的。

 

以上是关于logistic regression recap的主要内容,如果未能解决你的问题,请参考以下文章

python 二元Logistics Regression 回归分析(LogisticRegression)

Logistic Regression逻辑斯蒂回归

Logistic Regression 笔记与理解

linear regression and logistic regression with pytorch

机器学习—Logistic Regression

logistic regression