Mahout实现的分类算法,两个例子,预测期望的目标变量

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Mahout实现的分类算法,两个例子,预测期望的目标变量相关的知识,希望对你有一定的参考价值。

Mahout实现的分类算法有:

–随机梯度下降(SGD)

–贝叶斯分类(Bayes)

–在线学习算法(Online Passive Aggressive)

–隐马尔科夫模型(HMM)

–决策森林(随机森林,DF)


例子1:将位置用作预测变量


用一个使用合成数据的简单例子,演示如何选择预测变量,使Mahout的模型能够准确地预测期望的目标变量。

技术分享


上图是一个历史数据集合。假设在搜索颜色填充的形状:颜色填充是目标变量。

特征可以视为包含形状,和位置的预测变量。

–位置貌似适合用作预测变量:水平(x)坐标可能就足够了。

–形状似乎并不重要


很明显,颜色填充有两种可能取值,即填充或未填充。

–现在需要选择用作预测变量的特征。哪些特征是可以正确表述的呢?

–首先排除颜色填充(它是目标变量),可以将位置或形状用作变量。

–可以用x和y坐标来描述位置。基于一个数据表,可以为每个样本创建一条记录,包含目标变量和正在考虑的预测变量的字段。


例子2:不同数据需要不同预测变量

技术分享

看看另一组历史数据,它们与之前的数据有着同样的特征。

–但在这种情况下,无论x还是y坐标,对预测符号是否填充颜色,没有作用。

–位置不再有用,但现在形状成为了一个有用的特征。


选作预测变量的特征(形状)具有3种值(圆形、三角形、正方形)。可引入朝向,来区分这些形状(朝上的三角形和朝下的三角形)



不同的算法各有优势


以前面的例子为证:


–在例1中,训练算法应该使用x坐标位置来判定颜色填充。在例2中,形状更有用。


一个点的x坐标点位置是连续变量,需要算法可以使用连续变量。


–在Mahout中,SGD和随机森林法,可以使用连续变量。

–朴素贝叶斯和补充朴素贝叶斯算法,则无法使用连续变量。



并行串行算法的权衡

技术分享

并行算法有相当大的额外开销,开始处理样本之前,需要花一些时间去设置计算环境。


对于某些中等规模的数据集,串行算法可能不仅仅是够用,而往往是首选的

这种权衡如图所示,其中比较了假设的串行,和并行可扩展算法的运行时间

锯齿形状的下降部分,是由于添加了新机器


本文出自 “中科院计算所培训” 博客,谢绝转载!

以上是关于Mahout实现的分类算法,两个例子,预测期望的目标变量的主要内容,如果未能解决你的问题,请参考以下文章

优化预测基于matlab鲸鱼优化算法优化BP回归预测含Matlab源码 W002期

Mahout 分类算法

小烨推荐分享一个明学平台的实验-Mahout贝叶斯分类算法

数据挖掘---推荐算法(Mahout工具)

Mahout学习之Mahout简介安装配置入门程序测试

OPENCV SVM介绍和自带例子