CS229 笔记08

Posted GENKUN

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CS229 笔记08相关的知识,希望对你有一定的参考价值。

CS229 笔记08

Kernel

  • 回顾之前的优化问题

    原始问题为:

    \[ \min_{w,b} \frac{1}{2}||w||^2\{\text{s.t.}}y^{(i)}\left(w^{\rm T}x^{(i)}+b\right)\geq1 \]

    原始问题的对偶问题为:

    \[ \max_{\alpha}\left\{ \sum_{i=1}^m \alpha_i - \frac{1}{2} \sum_{i,j}^m y{(i)} y^{(j)}\alpha_i \alpha_j \left\langle x^{(i)}, x^{(j)} \right\rangle \right\}\{\text{s.t. }}\alpha_i\geq0\\sum_{i=0}^my^{(i)}\alpha_i=0 \]

    求解出对偶问题得到 \(\alpha_i\) 后,代入以下等式可求出 \(w\)

    \[ w=\sum_{i=1}^m\alpha_iy^{(i)}x^{(i)} \]

    模型训练完成之后的预测函数 \(h_{w,b}(x)\) 为:

    \[ h_{w,b}(x)=g(w^{\rm T}x+b)\=g\left(\sum_{i=1}^m\alpha_iy^{(i)}\left\langle x^{(i)},x\right\rangle+b\right) \]

  • Kernel(核)

    ss

Soft Margin

  • Soft Margin(软间隔SVM)

    ss

SMO Algorithm

  • SMO Algorithm

    ss

以上是关于CS229 笔记08的主要内容,如果未能解决你的问题,请参考以下文章

CS229 笔记07

CS229 笔记02

(CS229) 第一课 梯度下降及标准方程推导笔记

CS229 - MachineLearning - 12 强化学习笔记

(CS229) 第二课 梯度下降及标准方程推导笔记

CS229笔记一监督学习,线性回归,LMS算法,正态方程,概率解释和局部加权线性回归