速通版吴恩达机器学习笔记Part2

Posted ViviranZ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了速通版吴恩达机器学习笔记Part2相关的知识,希望对你有一定的参考价值。

目录

1. 代价函数(cost function)(P11-P15)

 2.梯度下降(GD,gradient descent)


 

1. 代价函数(cost function)(P11-P15)

代价函数用来评判算法结果的好坏,主要用的平方误差函数

 

 认为J衡量fit的程度

 总结:

 一个例子:

 

能理解,类似于一个二维优化问题,找二维里最佳的(w,b) 

 2.梯度下降(GD,gradient descent)

直观理解:

这玩意太熟了,应用范围广、针对可微函数很好用,但是问题在于必须针对可微函数并且容易陷入局部最优 。但是在线性回归+MSE的问题里只有一个局部最小(同时也是全局最小),因此这个方法非常实用。

关于derivative等不再赘述,\\alpha 是学习率、优化里的步长。关键在于【同时更新w和b】,这是当提及GD时候的默认的关键

 关于这个学习率,小了收敛很慢,大了可能来回横跳,但是我们事先并不知道哪个值是最佳的,只能事先设置。理论上,我们知道当我们步数越多的时候,步长应该越小,(就像找东西,找到近的位置的时候应该更仔细,)但是,下面图表示出我们直观上可以用恒定的步长找到最优值(因为derivative在变小)

 数学式子如下:最简单的微积分 过

  

用图示直观理解如下: 

 之前

 

第一次作业相对简单,matlab码过多次了,其实就是一个梯度下降法的循环,略。 有需要可以参考:Coursera-ML-AndrewNg-Notes/code at master · fengdu78/Coursera-ML-AndrewNg-Notes · GitHub

以上是关于速通版吴恩达机器学习笔记Part2的主要内容,如果未能解决你的问题,请参考以下文章

速通版吴恩达机器学习笔记Part3

速通版吴恩达机器学习笔记Part4

Coursera 深度学习 吴恩达 deep learning.ai 笔记整理(3-2)——机器学习策略

吴恩达机器学习课程笔记:多元梯度下降法

吴恩达机器学习笔记

吴恩达机器学习笔记