机器学习中的优化问题
Posted weilonghu
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习中的优化问题相关的知识,希望对你有一定的参考价值。
凸优化问题
以逻辑回归为例,(Y={1, -1}),假设模型参数为( heta),则逻辑回归问题的优化目标为
[egin{aligned} mathop{min}_{ heta}L( heta) = sum limits_{i=1}^n log (1 + exp(-y_i heta^T x_i)) end{aligned}]
可以通过计算目标函数的二阶Hessian矩阵(黑塞矩阵)来验证凸性。令
[L_i( heta) = log (1 + exp(-y_i heta^T x_i))]
对该函数求二阶导,有
[ abla L_i( heta) = frac{exp(y_i heta^T x_i)}{(1 + exp(y heta^T x_i))^2} x_i x_i ^2]
该矩阵满足半正定性质( abla^2L_i( heta) geq 0),因此( abla^2L( heta) = sum limits_{i=1}^{n}L_i( heta) geq = 0),因此该函数为凸函数
对于凸优化问题,所有的局部最小值都是全局最小值
非凸优化问题
- PCA问题是非凸优化问题
可以借助SVD直接得到主成分分析的全局极小值
凸函数定义:函数(L)是凸函数当且仅当对于定义域内的任意两点(x,y)和任意实数(lambda in [0, 1])总有
[L(lambda x + (1-lambda)y) leq lambda L(x) + (1-lambda)L(y)]
举例
- 凸优化模型:逻辑回归、SVM、线性回归等线性模型
- 非凸优化模型:PCA、低秩模型(如矩阵分解)、深度神经网络
以上是关于机器学习中的优化问题的主要内容,如果未能解决你的问题,请参考以下文章