支持向量机——核函数与支持向量回归(附Python代码)

Posted 机器学习学习机器

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了支持向量机——核函数与支持向量回归(附Python代码)相关的知识,希望对你有一定的参考价值。



上期跟大家介绍了支持向量机的一般原理,今天继续跟大家聊聊支持向量机——核函数与支持项链回归。



1
核函数
数据通过某种变换,使原本二维的问题通过某种函数转换到高维的特征空间,而这个函数就称为核函数。核函数有很多种,有线性核函数,多项式核函数,高斯核函数等,其中高斯核函数最为著名。

支持向量机——核函数与支持向量回归(附Python代码)


核函数可以说是支持向量机的灵魂,因为现实生活中,我们不大可能通过一个线性的等式就可以完美的解决一个分类问题,总是要经过核函数变换到多维空间,这时候核函数就显得尤为重要。



2
支持向量回归SVR

没错,支持向量机除了可以解决分类问题之外,还可以处理回归问题。

支持向量机——核函数与支持向量回归(附Python代码)

与一般回归不一样的是,支持向量回归会允许模型有一定的的偏差,在偏差范围之内的点,模型不认为他们有问题,而偏差范围之外的点就会计入损失。所以对于支持向量回归来说,支持向量以内的点都会影响模型,而支持向量之外的点用于计算损失。


3
总结

优点:

  • 有效性:解决高维特征的分类问题和回归问题很有效,在特征维度大于样本数时依然有很好的效果;

  • 核函数可以很灵活的来解决各种非线性的分类回归问题

  • 稀疏性:仅仅使用支持向量来做超平面的决定,无需使用全部数据。

  • 样本量不是海量数据的时候,分类准确率高,泛化能力强

缺点:

  • SVM样本量非常大,核函数映射维度非常高时,计算量过大,不太适合使用

  • SVM对缺失数据敏感

  • 如果特征维度远远大于样本数,则SVM现一般





Python实例(使用jupyter Notebook打开):

链接:https://pan.baidu.com/s/1TGEMIiqWvg1m3lJI1uWFxw 密码:cphe

每天一点点,生活大不同,欢迎你们活碰乱跳给我留言,也鼓励点赞转发。



以上是关于支持向量机——核函数与支持向量回归(附Python代码)的主要内容,如果未能解决你的问题,请参考以下文章

支持向量机原理线性支持回归

LSSVM回归预测基于matlab人工蜂群算法优化最小二乘支持向量机LSSVM数据回归预测含Matlab源码 2213期

02-33 非线性支持向量机

LSSVM回归预测基于matlab天鹰算法优化最小二乘支持向量机AO-LSSVM数据回归预测含Matlab源码 1848期

LSSVM回归预测基于matlab天鹰算法优化最小二乘支持向量机AO-LSSVM数据回归预测含Matlab源码 1848期

支持向量机原理线性不可分支持向量机与核函数