logistic regression recap
Posted Catch is KING
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了logistic regression recap相关的知识,希望对你有一定的参考价值。
dz=dL/dz=dL/da*da/dz-----》链式法则求导,求微分
da=dL/da=-y/a+(1-y)/(1-a)=(a-y)/a*(1-a)---->求导公式
dw1=dl/dz*dz/dw1=(a-y)*
dJ/dw1=1/m(训练集中求和dw1 )---->训练集求和的平均值作为cost 函数的dw1来使用,update w1的值。
dw1 = dL/dw1=(dL/dz)*(dz/dw1)
由于这其中 吴恩达使用dz=dl/dz所以dw1=dz/dw1*dz=x1*dz---->z=w1*x1+w2*x2+b如上图;
dJ/dw1=1/m(sum of dL/dw1)---->用这个来更新w:=w-a*dw1----》a为学习率
更新b----》J(w,b)的值,最后求到最小的J对应的(w,b)因为为凸的所以是有唯一的最优解的。
以上是关于logistic regression recap的主要内容,如果未能解决你的问题,请参考以下文章
python 二元Logistics Regression 回归分析(LogisticRegression)