Spark SVM分类器
Posted soyosuyang
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark SVM分类器相关的知识,希望对你有一定的参考价值。
package Spark_MLlib import java.util.Properties import org.apache.spark.mllib.regression.LabeledPoint import org.apache.spark.mllib.linalg.{Vector, Vectors} import org.apache.spark.mllib.classification.SVMWithSGD import org.apache.spark.sql.SparkSession import org.apache.spark.sql.types._ import org.apache.spark.sql.Row /**
* SGD:一种优化方法,目的使目标函数的值最小.SGD指stochastic gradient descent,即随机梯度下降.是梯度下降的batch版本.
* 这么做的好处在于:
* 当训练数据太多时,利用整个数据集更新往往时间上不显示.batch的方法可以减少机器的压力,并且可以更快地收敛.
* 当训练集有很多冗余时(类似的样本出现多次),batch方法收敛更快.以一个极端情况为例,若训练集前一半和后一半梯度相同.那么如果前一半作为一个batch,
* 后一半作为另一个batch,那么在一次遍历训练集时,batch的方法向最优解前进两个step,而整体的方法只前进一个step.
*/ object SVM{ def main(args: Array[String]): Unit = { val spark=SparkSession.builder().master("local").getOrCreate() val train_data=spark.sparkContext.textFile("file:///home/soyo/下载/Hadoop+Spark+Hbase/Spark训练数据/train_after.csv") val test_data=spark.sparkContext.textFile("file:///home/soyo/下载/Hadoop+Spark+Hbase/Spark训练数据/test_after.csv") val train=train_data.map{x=> val parts=x.split(",") LabeledPoint(parts(4).toDouble,Vectors.dense(parts(0).toDouble,parts(1).toDouble,parts(2).toDouble,parts(3).toDouble)) } // train.foreach(println) val test=test_data.map{x=> val y=x.split(",") LabeledPoint(y(4).toDouble,Vectors.dense(y(0).toDouble,y(1).toDouble,y(2).toDouble,y(3).toDouble)) } //numIterations:迭代次数,默认是100 val numIterations = 600 val model=SVMWithSGD.train(train,numIterations) //val model=new SVMWithSGD().run(train) //两种求model都行 //清除默认阈值,这样会输出原始的预测评分,即带有确信度的结果。 model.clearThreshold() val scoreAndLabels=test.map{x=> val score=model.predict(x.features) score+" "+x.label } scoreAndLabels.foreach(println) val rebuyRDD=scoreAndLabels.map(_.split(" ")) //设置模式信息 val schema=StructType(List(StructField("score",StringType,true),StructField("label",StringType,true))) //创建Row对象,每个Row对象都是rowRDD中的一行 val rowRDD=rebuyRDD.map(x=>Row(x(0).trim,x(1).trim)) //建立模式和数据之间的关系 val rebuyDF=spark.createDataFrame(rowRDD,schema) //prop变量保存JDBC连接参数 val prop=new Properties() prop.put("user","root") prop.put("password","密码") prop.put("driver","com.mysql.jdbc.Driver") //表示驱动程序是com.mysql.jdbc.Driver rebuyDF.write.mode("append").jdbc("jdbc:mysql://localhost:3306/数据库名","数据库表名",prop) } }
Spark 机器学习库从 1.2 版本以后被分为两个包:
spark.mllib
包含基于RDD的原始算法API。Spark MLlib 历史比较长,在1.0 以前的版本即已经包含了,提供的算法实现都是基于原始的RDD。spark.ml
则提供了基于DataFrames 高层次的API,可以用来构建机器学习工作流(PipeLine).ML Pipeline 弥补了原始 MLlib 库的不足,向用户提供了一个基于 DataFrame 的机器学习工作流式 API 套件。
从Spark2.0开始,Spark机器学习库基于RDD的API进入维护模式(即不增加任何新的特性),很有可能于3.0以后的版本的时候会移除出MLLib
以上是关于Spark SVM分类器的主要内容,如果未能解决你的问题,请参考以下文章