吴恩达深度学习:2.1Logistic Regression逻辑回归及其损失函数
Posted bigdata-stone
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了吴恩达深度学习:2.1Logistic Regression逻辑回归及其损失函数相关的知识,希望对你有一定的参考价值。
1.Logistic Regression是一个二元分类问题
(1)已知输入的特征向量x可能是一张图,你希望把它识别出来,这是不是猫图,你需要一个算法,可以给出预测值,更正式的y是一个概率,当输入特征x满足条件的时候y就是1。换句话说,如果x是图片,那就需要拿到一张猫图的概率。
(2)Sigmoid函数。这里就不多说了,关于sigmoid自己百度,很简单
(3)为了训练logistic回归模型的参数w和b,需要定义一个代价函数,接下来看看用logistic regression来训练的代价函数
这里我们想通过训练集来找到参数w和b,来得到相应的输出
(4)接下来看看损失函数或者叫做误差函数,你可以将损失定义为(y真实值-y预测值)^2,但是在logistc回归中,大家都不这样做,因为当你学习参数的时候,你会发现后续讨论的优化问题会变成非凸的,最后会得到很多歌局部最优解。梯度下降算法可能找不到全局最优值,但是这个L值可以用来衡量你的预测输出值和真实值有多接近。所以在logistic函数中,我们用下面这个式子来进行损失函数的计算:
对于这个损失函数,希望它尽可能的小
(4)ex1:当y=1的时候,,因为如果y=1的时候,第二项1-y就等于0,这就是说当y=1的时候,如果想让损失函数尽可能的小,这就意味着要尽可能的大,这就意味着要尽可能的大,但是sigmoid函数的输出永远不可能比1大,也就是说y=1时,让尽可能的大,但是它永远不可能大于1,所以要让接近1,
(5)ex2:当y=0的时候,损失函数的第一项等于0,因为y是0,所以这个第二项就是这个损失函数,所以损失函数变成,在学习过程中,想要损失函数小一些,这就意味着足够大
(6)成本函数:衡量的是在全体训练样本上的表现,我们要找到合适的w和b,让这里的成本函数J尽可能的小
以上是关于吴恩达深度学习:2.1Logistic Regression逻辑回归及其损失函数的主要内容,如果未能解决你的问题,请参考以下文章
《吴恩达深度学习笔记》01.神经网络和深度学习 W2.神经网络基础