Coursera-AndrewNg(吴恩达)机器学习笔记——第三周
Posted LoganGo
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Coursera-AndrewNg(吴恩达)机器学习笔记——第三周相关的知识,希望对你有一定的参考价值。
一.逻辑回归问题(分类问题)
- 生活中存在着许多分类问题,如判断邮件是否为垃圾邮件;判断肿瘤是恶性还是良性等。机器学习中逻辑回归便是解决分类问题的一种方法。
二分类:通常表示为yϵ{0,1},0:“Negative Class”,1:“Possitive Class”。 - 逻辑回归的预测函数表达式hθ(x)(hθ(x)>=0 && hθ(x)<=1):
其中g(z)被称为逻辑函数或者Sigmiod函数,其函数图形如下:
理解预测函数hθ(x)的意义:其实函数hθ(x)的值是系统认为样本值Y为1的概率大小,可表示为hθ(x)=P(y=1|x;θ)=1-P(y=0|x;θ).
- 决策边界(Decision boundary):y=0和y=1的分界线,由逻辑函数图形可知,当y=1时,g(z)>=0.5,z>=0,也就是说θTX>=0,这样我们就可以通过以xi为坐标轴,作出θTX=0这条直线,这条直线便是决策边界。如下图所示:
-
代价函数(Cost Function)J(θ):一定要是一个凸函数(Convex Function),这样经过梯度下降方便找到全局最优 。
根据以上两幅图我们可以看出,当预测值hθ(x)和实际值结果y相同时,代价值为0;当预测值hθ(x)和实际结果y不同时,代价值无穷大。组合在一起可以写为:
向量化后可写为: - 梯度下降算法:和线性回归中使用的一样
向量化: - 高级优化方法(用来代替梯度下降选择参数θ):Conjugate gradient(共轭梯度法)、BFGS、L-BFGS,只需要掌握用法即可,不需了解原理。
优点:不需要手动选择学习速率α,收敛速度比梯度下降快,更复杂。
%首先写一个函数用来计算代价函数和代价函数的梯度
function [jVal, gradient] = costFunction(theta) jVal = [...code to compute J(theta)...]; gradient = [...code to compute derivative of J(theta)...]; end
%然后在命令行中通过调用fminunc()函数来计算参数θoptions = optimset(\'GradObj\', \'on\', \'MaxIter\', 100);
initialTheta = zeros(2,1);
[optTheta, functionVal, exitFlag] = fminunc(@costFunction, initialTheta, options); - 多分类问题:可以转化为n+1个二分类问题看待,如下:
通过这种形式,我们可以预测出结果最接近哪个y值。
二.过拟合问题和解决方法
-
Underfit:欠拟合问题具有高偏差;Overfit:过拟合问题具有高方差。
-
过拟合的定义:如果训练集中有过多的特征项,训练函数过于复杂,而训练数据又非常少。我们学到的算法可能会完美的适应训练集,也就是说代价会接近与0。但是却没有对新样本的泛化能力。
-
解决方法:手动的选择合适的特征;或者使用模型选择算法(用来选取特征变量)。
- 正规化(Regularization):正则化中我们将保留所有的特征变量,但是会减小特征变量的数量级(参数数值的大小θ(j)),相当于减少参数θ(j)所对应的多项式对整个预测函数的影响。以下内容以线性回归为例。
正规化代价函数:其中λ过大会导致欠拟合。
正规化梯度下降:θ0不需要
其中当参数Θ不为θ0时,梯度下降形式又可以改写为:
正规化正规方程:其中L为(n+1)*(n+1)维矩阵。
-
正规化逻辑回归:
代价函数:
梯度下降形式和线性回归相同。
- 正规化逻辑回归中高级的求解参数θ方法:
无~~~~
以上是关于Coursera-AndrewNg(吴恩达)机器学习笔记——第三周的主要内容,如果未能解决你的问题,请参考以下文章
Coursera-AndrewNg(吴恩达)机器学习笔记——第四周
机器学习- 吴恩达Andrew Ng Coursera学习总结合集,编程作业技巧合集