李宏毅机器学习 p3[学习笔记 ]

Posted bohu83

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了李宏毅机器学习 p3[学习笔记 ]相关的知识,希望对你有一定的参考价值。

线性模型过于简单,蓝色线所示,如果更复杂的模型 ,如 红线所示。

可以使用一个常数项跟 一堆蓝色的折线的组合。

 

蓝色折线使用sigmod 函数表示,它的特点:随着 的增大,y趋向于c,随着 的减少,y趋向于0.

 可以调整不同的w,b,c 来 调整不同的图像 。

红色折线可以写成

因为 线性模型的bias 较大,为了减少这个值,采用了共有弹性的红色折线

更多feature :

 

下面看下取值为3个feature(j=1,2,3)的情况,i 表示一个蓝色的function。只是举例,越多的函数就能表示越复杂的曲线,有多少个函数是超参数,自己决定。

x1,x2,x3 表示前一天,前二天,前三天的观看 人数。

其中,r就是sigmod的入参蓝色括号内的简化表示: 

 上面是图形化的表示方式,下面是线性代数 的表示方式。

第一步的 定义 函数就完成了(注意两个b 不同含义,颜色不同)

这里 的 Loss 跟之前没有不同,就是一组未知参数的 统称。 

第三步 :求最优化 参数 

 

 

 这是一个理论 的 计算 过程,通常情况下不会计算到g=0 为止。

 

 实际情况 ,会分批batch处理。根据batch去分别计算L1,L2,L3 ,所有的batch处理一遍叫eponch(一个Epoch就是将所有训练样本训练一次的过程。)每次更新参数叫update

除了SIGMOD,还有其他方式表示

 真实 数据 测试结果:

还可以 改进模型:

这里的1 layer 就进行一次*w+b,进行一次函数转换relu。

 关于名字:

一起把sigmod 或者relu 叫做neuron (神经 元),整个叫神经网络 。过于浮夸,现在 叫做hidden layer,许多层叫深度学习。

 为什么 把layer 变深而不是变广,老师后面会讲。

为什么 不是更多层?下面 的例子 ,出现了过拟合overfiting 的 问题 。 

以上是关于李宏毅机器学习 p3[学习笔记 ]的主要内容,如果未能解决你的问题,请参考以下文章

《2021机器学习-李宏毅》学习笔记

李宏毅机器学习笔记:1.机器学习介绍

李宏毅 机器学习 p5学习 笔记

李宏毅 机器学习 p5学习 笔记

李宏毅老师《机器学习》课程笔记-4.2 Batch Normalization

李宏毅 机器学习 2021 视频 -p2学习 笔记系列