spark算法实现——svm支持向量机
Posted msw0529
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark算法实现——svm支持向量机相关的知识,希望对你有一定的参考价值。
svm是一种分类算法,一般先分为两类,再向多类推广一生二,二生三,三生。。。
大致可分为:
线性可分支持向量机
硬间隔最大化hard margin maximization
硬间隔支持向量机
线性支持向量机
软间隔最大化soft margin maximization
软间隔支持向量机
非线性支持向量机
核函数kernel function
基本概念:
分割超平面
设C和D为两不相交的凸集,则存在超平面P,
P可以将C和D分离。
线性可分支持向量机
SVM从线性可分情况下的最优分类面发展而来。最优分类面就是要求分类线不但能将两类正确分开(训练错误率为0),且使分类间隔最大
给定线性可分训练数据集,通过
间隔最大化得到的分离超平面为
相应的分类决策函数
该决策函数称为线性可分支持向量机。
φ(x)是某个确定的特征空间转换函数,它的作用是
将x映射到(更高的)维度。
线性支持向量机
分类线能将两类分开(训练错误率大于0,存在个别样本点分错),且使分类间隔最大
非线性支持向量机
存在非线性分割超平面,讲样本分开
sparkmllib代码实现
package mllib import org.apache.spark.mllib.classification.{SVMModel, SVMWithSGD} import org.apache.spark.mllib.regression.LabeledPoint import org.apache.spark.mllib.util.MLUtils import org.apache.spark.rdd.RDD import org.apache.spark.sql.SQLContext import org.apache.spark.{SparkContext, SparkConf} //二分类 object SVMwithSGD { def main(args: Array[String]) { val conf = new SparkConf().setAppName("test").setMaster("local") val sc = new SparkContext(conf) val sql = new SQLContext(sc); val data: RDD[LabeledPoint] = MLUtils.loadLibSVMFile(sc, "svm.txt") val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L) val training = splits(0).cache() val test = splits(1) // data.foreach( x => println(x.toString())) // data.foreach( x => println(x.label)) data.foreach( x => println(x.features)) val numIterations = 100 val model: SVMModel = SVMWithSGD.train(training, numIterations) model.clearThreshold()//为了模型拿到评分 不是处理过之后的分类结果 val scoreAndLabels: RDD[(Double, Double)] = test.map { point => // 大于0 小于0 两类 val score = model.predict(point.features) (score, point.label) } scoreAndLabels.foreach(println) } }
评分>0表示样本点在分割面之上,<0表示在分割面之下
以上是关于spark算法实现——svm支持向量机的主要内容,如果未能解决你的问题,请参考以下文章