机器学习基本概念

Posted coldyan

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习基本概念相关的知识,希望对你有一定的参考价值。

1 为什么随机梯度下降法能work?

https://www.zhihu.com/question/27012077中回答者李文哲的解释
 
2 随机梯度下降法的好处?
(1)加快训练速度(2)噪音可以使得跳出局部最优
 
3 权衡方差和偏差
偏差反映的是模型的准确度(对训练数据的吻合程度),方差则反映模型的稳定性(对测试数据的泛化能力)。模型越复杂,偏差越小,方差越大。
 
 4 减少过拟合的方法
(1)减少特征个数
(2)增大数据量
(3)引入正则项
 
 
 5 L1和L2正则
(1)

L0范数:||x||0为x向量各个非零元素的个数

L1范数:  ||x||1 为x向量各个元素绝对值之和。
L2范数:  ||x||2为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或者Frobenius范数

(2)

 L0正则的特点是:防止过拟合,并给出稀疏结果用于特征选择,但由于加L0后问题很难求解,所以一般用L1来做稀疏。

 L1正则的特点是:防止过拟合,给出稀疏结果,常用于特征选择。

 L2正则的特点是防止过拟合。

(3)

L0能得到稀释结果比较好理解,那么为什么L1也能得到稀疏结果呢?

首先,加了正则之后的优化问题可以如下等价:

然后来看看W是二维的情况下:

 可以发现,L2所规定的约束范围与等高线的交点通常不在坐标轴上,而L1由于范围是一个棱形,等高线与其交点刚好落在坐标轴上,对应于w1为0。当W是一个更高维的情况也是类似,这就解释了为什么L1能给出一个稀疏的结果,而L2不能。

 
*(4)L2正则的梯度很好求解,但是L1则不能简单求导解决,往往是用下面三种方法来解决:
 
(5)L1正则有什么问题?

如果有几个变量相关性比较大,它会随机选出其 中之一, 而不考虑其他的变量。 

 

 

以上是关于机器学习基本概念的主要内容,如果未能解决你的问题,请参考以下文章

机器学习的基本概念

机器学习的基本概念[更新]

走进AI·机器学习の基本概念

机器学习初探——机器学习的基本概念

机器学习与Tensorflow——机器学习基本概念tensorflow实现简单线性回归

斯坦福2014机器学习笔记一----基本概念