密码学:常见算法分类
Posted 方寸间
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了密码学:常见算法分类相关的知识,希望对你有一定的参考价值。
前言
有任何问题欢迎提出,便于及时修正
分类算法列一下有多少种?应用场景?分类算法介绍常见分类算法优缺点如何选择分类算法分类算法评估
分类算法
分类算法介绍
概念
数据挖掘任务通常分为两大类:
- 预测任务,根据其他属性的值,预测特定属性的值。
- 描述任务,概括数据中潜在联系的模式(相关性,趋势,聚类,轨迹和异常)
分类属于预测任务,就是通过
已有数据集
(训练集)的学习,得到一个目标函数f
(模型),把每个属性集x映射到目标属性y
(类),且y必须是离散的(若y为连续的,则属于回归算法)。分类流程:
分类算法
分类算法按原理分为以下四大类:
- 基于统计:如贝叶斯算法
- 基于规则:如决策树算法
- 基于神经网络:如神经网络算法
- 基于距离:如KNN算法
分类算法按模型可以分为一下两类:
预测性模型
:直接告诉你数据应被分到哪个类概率性模型
:不直接告诉你结果,但告诉你属于每个类的概率常见分类算法
常用的分类算法包括: NBC(Naive Bayesian Classifier,朴素贝叶斯分类)算法、 LR(Logistic Regress,逻辑回归)算法、 决策树类算法(ID3;Iterative Dichotomiser 3 迭代二叉树3 代、C4.5 决策树算法、C5.0 决策树算法) SVM(Support Vector Machine,支持向量机)算法、 KNN(K-Nearest Neighbor,K 最近邻近)算法、 ANN(Artificial Neural Network,人工神经网络)算法等。
NBS
NBC算法的优点:
- 逻辑简单,易于实现;
- 所需估计的参数很少;
- 对缺失数据不太敏感;
- 具有较小的误差分类率;
- 性能稳定,健壮性比较好;
NBC算法的缺点:
- 在属性个数比较多或者属性之间相关性较大时,NBC 模型的分类效果相对较差;
- 算法是基于条件独立性假设的,在实际应用中很难成立,故会影响分类效果
LR
LR算法的优点
- 对数据中小噪声的鲁棒性好;
- LR 算法已被广泛应用于工业问题中;
- 多重共线性并不是问题,它可结合正则化来解决。
LR算法的缺点
- 对于非线性特征,需要转换
- 当特征空间很大时,LR的性能并不是太好
SVM算法
SVM详细说明
通过学习算法,SVM 可以自动寻找出对分类有较好区分能力的支持向量,由此构造出的分类器可以最大化类与类的间隔,因而有较好的适应能力和较高的分准率。SVM 算法的目的在于寻找一个超平面H,该超平面可以将训练集中的数据分开,且与类域边界的沿垂直于该超平面方向的距离最大,故SVM 法亦被称为最大边缘算法。
SVM算法的优点
- SVM 模型有很高的分准率;
- SVM 模型有很高的泛化性能;
- SVM 模型能很好地解决高维问题;
- SVM 模型对小样本情况下的机器学习问题效果好。
SVM算法的缺点
- SVM 模型对缺失数据敏感;
- 对非线性问题没有通用解决方案,得谨慎选择核函数来处理。
ID3算法
ID3 算法是一种基于决策树的分类算法,该算法是以信息论为基础,以信息熵和信息增益为衡量标准,从而实现对数据的归纳分类。信息增益用于度量某个属性对样本集合分类的好坏程度。ID3 算法的时间复杂度为O(n*|D|*log|D|)。
ID3算法的优点
- ID3 算法建立的决策树规模比较小;
- 查询速度快。
ID3算法的缺点
- 不适合处理连续数据;
- 难以处理海量数据集;
- 建树时偏选属性值较大的进行分离,而有时属性值较大的不一定能反应更多的数据信息。
C4.5 算法
C4.5 算法是ID3 算法的修订版,采用信息增益率来加以改进,选取有最大增益率的分割变量作为准则,避免ID3 算法过度的适配问题。
C4.5算法优点
- C4.5 继承了ID3 优点;
- 在树构造过程中进行剪枝;
- 能对不完整数据进行处理;
- 能够完成对连续属性的离散化处理;
- 产生的分类规则易于理解,准确率较高;
- 用增益率来选择属性,克服了用增益选择属性时偏向选择取值多的属性。
C4.5 算法缺点
- 构造树时,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效;
- 只适合于能驻留于内存的数据集,当训练集达到内存无法容纳时程序无法运行。
C4.5 用于遥感分类过程中,首先依据通常的方式建立第一个模型。随后建立的第二个模型聚焦于被第一个模型错误分类的记录。以此类推,最后应用整个模型集对样本进行分类,使用加权投票过程把分散的预测合并成综合预测。Boosting 技术对于噪声不大的数据,通常通过建立的多模型来减少错误分类的影响,提高分类精度。
C5.0算法
C5.0 算法是 Quinlan 在C4.5 算法的基础上改进而来的产生决策树的一种更新的算法,它除了包括C4.5 的全部功能外,还引入许多新的技术,其中最重要的技术是提升(Boosting)技术,目的是为了进一步提高决策树对样本的识别率。同时C5.0 的算法复杂度要更低,使用更简单,适应性更强,因此具有更高的使用价值。
C5.0算法的优点
- C5.0 模型能同时处理连续和离散的数据
- C5.0 模型估计模型通常不需要很长的训练时间;
- C5.0 引入Boosting 技术以提高分类的效率和精度;
- C5.0 模型易于理解,模型推出的规则有非常直观的解释;
- C5.0 模型在面对数据遗漏和特征很多的问题时非常稳健。
C5.0算法的缺点
- 目标字段必须为分类字段。
在分类模块中采用C5.0 模型来完成决策树分类、形成分类文件,实现遥感影像的分类。
KNN 算法
KNN 算法是Cover 和Hart 于1968 年提出的理论上比较成熟的方法,为十大挖掘算法之一。
该算法的思路非常简单直观:如果一个样本在特征空间中的k 个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
KNN算法的优点
- KNN 算法简单、有效;
- KNN 算法适用于样本容量比较大的类域的自动分类;
- 由于KNN 方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN 方法较其他方法更为适合。
KNN算法的缺点
- KNN 算法计算量较大;
- KNN 算法需要事先确定K 值;
- KNN 算法输出的可解释不强;
- KNN 算法对样本容量较小的类域很容易产生误分。
ANN 算法
人工神经网络(ANN)算法就是一组连续的输入/输出单元,其中每个连接都与一个权相关。在学习阶段,通过调整神经网络的权,使得能够预测样本的正确类标号来学习。
ANN算法的优点
- 能处理数值型及分类型的属性;
- 分类的准确度高,分布并行处理能力强;
- 对包含大量噪声数据的数据集有较强的鲁棒性和容错能力。
ANN算法的缺点
- 不能观察之间的学习过程;
- 学习时间过长,甚至可能达不到学习的目的;
- 对于非数值型数据需要做大量数据预处理工作;
- 输出结果难以解释,会影响到结果的可信度和可接受程度;
- 神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值。
选择分类算法
1、如何选择合适的算法
如果你的训练集很小,高偏差/低方差的分类器(如朴素贝叶斯)比低偏差/高方差的分类器(如K近邻或Logistic回归)更有优势,因为后者容易过拟合。 但是随着训练集的增大,高偏差的分类器并不能训练出非常准确的模型,所以低偏差/高方差的分类器会胜出(它们有更小的渐近误差)。 你也可以从生成模型与鉴别模型的区别来考虑它们。
2、简单的分类模型
朴素贝叶斯(Naive Bayes, NB)
根据条件独立假设与贝叶斯公式,计算样本属于每个类的概率。决策树(Decision Tree, DT)
根据特征集取值不同,将样本逐层划分并建立规则,直到某一个样本集合内的所有样本属于同一类。K近邻(K-nearest neighbors, KNN)
kNN 算法的思路非常简单直观:如果一个样本在特征空间中的 k 个最相似 ( 即特征空间中最邻近 ) 的样本中的大多数属于某一个类别,则该样本也属于这个类别。分类算法性能评估
性能与结果的衡量:
- 准确率:指模型正确地预测新的或未见过的数据的类标号的能力,这也是模型的首要能力。如果一个模型的分类准确率小于百分之五十,那么可以认为其结果是无价值的。在其他条件等同的情况下,当然首选准确率高的分类方法。
- 速度:指产生和使用模型的时间复杂度。产生模型的试验数据集通常是巨量的,因为一般情况下其数量和分类准确率成正比。如果产生和使用模型的时间过长,将严重影响用户的使用。
- 稳健性:指给定噪声数据或具有空缺值的数据,模型正确预测的能力。现实中的数据库通常有噪声,有时还很大。如果一个分类器不善于消除噪声的影响,将严重影响分类准确率。
- 可伸缩性:指给定大量数据,有效的构造模型的能力。有些分类器在数据量很小的情况下可以有效的构造模型,随着数据量的增大,其构造模型的能力显著下降,这最终也会影响分类准确率。
- 可解释性:指学习模型提供的理解和洞察的层次。
以上是关于密码学:常见算法分类的主要内容,如果未能解决你的问题,请参考以下文章