机器学习第21篇 - 特征递归消除RFE算法 理论

Posted 生信宝典

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习第21篇 - 特征递归消除RFE算法 理论相关的知识,希望对你有一定的参考价值。

特征递归消除(RFE, recursive feature elimination) 

RFE 算法通过增加或移除特定特征变量获得能最大化模型性能的最优组合变量。

RFE基本算法 

  1. 使用所有特征变量训练模型

  2. 计算每个特征变量的重要性并进行排序

  3. 对每一个变量子集 S_{i}, i=1...S:

    1. 提取前S_{i}个最重要的特征变量

    2. 基于新数据集训练模型

    3. 重计算每个特征变量的重要性并进行排序(可选)

  4. 计算比较每个子集获得的模型的效果

  5. 决定最优的特征变量集合

  6. 选择最优变量集合的模型为最终模型

https://topepo.github.io/caret/premade/Algo1.png

注:每次筛选子集特征变量构建模型时是否对变量在进行重新排序和选择是可选的。之前有评估表示对随机森林模型不建议每次都计算变量重要性,这会降低最终的性能。对基于高度共线性变量构建的线性模型,每一次重新计算变量重要性可以略微提高模型性能。

在使用RFE算法时需要注意过拟合问题。假如在一个很大数目的无意义特征变量组成的数据集中有一个变量正好与分类结果完全吻合。RFE算法将会给这个变量很好的重要性得分和排序,包括这个变量的模型在构建评估时错误率也较低。需要一个独立的测试集或验证集才能发现这个被选出的特征变量是无意义的。这也被称为选择偏好 (selection bias)

在当前的 RFE 算法中,训练集被至少用于 3 个目的:特征变量筛选模型拟合性能评估。单一的静态训练集不能满足这些需求,除非训练集中的样品特别多(尤其是显著多于变量数目)。

为了更好地评估特征选择过程中的性能波动,需要在前述算法的外层再增加一层重抽样过程(如10-折交叉验证)。这可以提供很好地性能评估,但也增加了很多计算压力,建议使用并行计算加快速度。

交叉验证RFE算法 

  1. 对每一次重采样迭代

    1. 提取前S_{i}个最重要的特征变量

    2. 基于新数据集训练模型

    3. 采用验证集评估模型

    4. 重计算每个特征变量的重要性并进行排序(可选)

    5. 把训练集拆分为新训练集和验证集

    6. 采用新训练集和所有特征变量训练模型

    7. 使用验证集评估模型

    8. 计算所有特征变量重要性并进行排序

    9. 对每一个变量子集 S_{i}, i=1...S:

  2. 决定合适数目的特征变量

  3. 估计用于最终模型构建的特征变量集合

  4. 选择最优变量集合采用全部训练集构建最终模型

https://topepo.github.io/caret/premade/Algo2.png

caretrfe使用的是第二种算法。

机器学习系列教程


从随机森林开始,一步步理解决策树、随机森林、ROC/AUC、数据集、交叉验证的概念和实践。


文字能说清的用文字、图片能展示的用、描述不清的用公式、公式还不清楚的写个简单代码,一步步理清各个环节和概念。


再到成熟代码应用、模型调参、模型比较、模型评估,学习整个机器学习需要用到的知识和技能。




以上是关于机器学习第21篇 - 特征递归消除RFE算法 理论的主要内容,如果未能解决你的问题,请参考以下文章

递归特征消除(RFE)+ 交叉验证

RFE递归式特征消除

R语言基于递归特征消除RFE(Recursive Feature Elimination)进行特征筛选(feature selection)

GPU 上的 SKLearn RFE(递归特征消除)

R 在 RFE(递归特征消除)中使用我自己的模型来选择重要特征

用于分类和回归的递归特征消除的模型