[干货]8张脑图总结8种常用算法 拿去不谢!

Posted XJ数据超市

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[干货]8张脑图总结8种常用算法 拿去不谢!相关的知识,希望对你有一定的参考价值。


欢迎关注  数据超市  微信公众号


聚类算法  Cluster  

聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法,同时也是数据挖掘的一个重要算法。

聚类(Cluster)分析是由若干模式(Pattern)组成的,通常,模式是一个度量(Measurement)的向量,或者是多维空间中的一个点。

聚类分析以相似性为基础,在一个聚类中的模式之间比不在同一聚类中的模式之间具有更多的相似性。


特征选择  Feature Selection  
[干货]8张脑图总结8种常用算法 拿去不谢!

特征选择( Feature Selection )也称特征子集选择( Feature Subset Selection , FSS ),或属性选择( Attribute Selection )。是指从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化,是从原始特征中选择出一些最有效特征以降低数据集维度的过程,是提高学习算法性能的一个重要手段,也是模式识别中关键的数据预处理步骤。对于一个学习算法来说,好的学习样本是训练模型的关键。[1] 

此外,需要区分特征选择与特征提取。特征提取 ( Feature extraction )是指利用已有的特征计算出一个抽象程度更高的特征集,也指计算得到某个特征的算法。

特征选择过程一般包括产生过程,评价函数,停止准则,验证过程,这4个部分。


PCA  principal components analysis  
[干货]8张脑图总结8种常用算法 拿去不谢!

PCA(principal components analysis)即主成分分析技术,又称主分量分析。主成分分析也称主分量分析,旨在利用降维的思想,把多指标转化为少数几个综合指标。

在统计学中,主成分分析PCA是一种简化数据集的技术。它是一个线性变换。这个变换把数据变换到一个新的坐标系统中,使得任何数据投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推。主成分分析经常用减少数据集的维数,同时保持数据集的对方差贡献最大的特征.这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面.但是,这也不是一定的,要视具体应用而定.


R-square 
[干货]8张脑图总结8种常用算法 拿去不谢!

r^2是可决系数(coefficient of determination)也叫拟合优度,顾名思义,用来描述回归直线对观测值的拟合程度。R范围是[0,1]。统计学上用回归分析来发现一些变量之间隐藏的关系,回归分析就是用来表达如何使用一个或多个自变量来预测另一个变量的值,也就是因变量的值。回归模型确定了自变量和因变量之间的数学关系,是定量的。而且通过这个模型能确定哪个是无关变量。


LightGBM 
[干货]8张脑图总结8种常用算法 拿去不谢!

在 histogram 算法之上, LightGBM 进行进一步的优化。首先它抛弃了大多数 GBDT 工具使用的按层生长(level-wise) 的决策树生长策略,而使用了带有深度限制的按叶子生长 (leaf-wise) 算法。 level-wise 过一次数据可以同时分裂同一层的叶子,容易进行多线程优化,不容易过拟合。但实际上level-wise是一种低效的算法,因为它不加区分的对待同一层的叶子,带来了很多没必要的开销。因为实际上很多叶子的分裂增益较低,没必要进行搜索和分裂。leaf-wise则是一种更为高效的策略,每次从当前所有叶子中,找到分裂增益最大(一般也是数据量最大)的一个叶子,然后分裂,如此循环。因此同 level-wise 相比,在分裂次数相同的情况下,leaf-wise 可以降低更多的误差,得到更好的精度。leaf-wise 的缺点是可能会长出比较深的决策树,产生过拟合。因此 LightGBM 在leaf-wise 之上增加了一个最大深度的限制,在保证高效率的同时防止过拟合。


熵  entropy  
[干货]8张脑图总结8种常用算法 拿去不谢!

熵的概念是由德国物理学家克劳修斯于1865年所提出。最初是用来描述“能量退化”的物质状态参数之一,在热力学中有广泛的应用。但那时熵仅仅是一个可以通过热量改变来测定的物理量,其本质仍没有很好的解释,直到统计物理、信息论等一系列科学理论发展,熵的本质才逐渐被解释清楚,即,熵的本质是一个系统“内在的混乱程度”。它在控制论、概率论、数论、天体物理、生命科学等领域都有重要应用,在不同的学科中也有引申出的更为具体的定义,按照数理思维从本质上说,这些具体的引申定义都是相互统一的,熵在这些领域都是十分重要的参量。


监督学习方法   supervised learning  
[干货]8张脑图总结8种常用算法 拿去不谢!

监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。

监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。


泛化误差  Generalization error  

即真实情况下模型的误差。模型训练出来后,在测试集(抽样)上测试会得出一个误差,姑且叫E(in),但这个误差是否能真实反应这个模型的预测的准确性呢?不一定。如果测试集(抽样)不能很好地代表真实情况(总体),这个E(in)的值就不能很好地反应模型实际情况下的表现。而模型在真实情况(总体)上所表现出的误差就称为泛化误差,这个误差才能真正地反映模型的预测的准确性。



       
大数据科研平台

科研老师无需开发编程
数据挖掘、数据计算只需想法
丰富数据资源可直接调用
验证封装70余种科学算法

www.BIGDATA711.com




以上是关于[干货]8张脑图总结8种常用算法 拿去不谢!的主要内容,如果未能解决你的问题,请参考以下文章

npm start端口号设置及修改,拿去不谢~

算法工程师必须要知道的8种常用算法思想

干货 | 单片机常用算法总结

干货I Python 爬虫:8 个常用的爬虫技巧总结!

编写可靠 Shell 脚本的8 个干货建议,拿走不谢!

86张脑图,一口气看完 React