特征重要性可以用来解释模型预测的“为啥以及哪个特征有贡献”?
Posted
技术标签:
【中文标题】特征重要性可以用来解释模型预测的“为啥以及哪个特征有贡献”?【英文标题】:Can feature importance be used to explain the "why and which feature contributed" to model predictions?特征重要性可以用来解释模型预测的“为什么以及哪个特征有贡献”? 【发布时间】:2021-11-21 12:38:53 【问题描述】:我有一个 XGBoost(classificaion) 模型,使用 N 变量和模型的特征重要性列表,准确率约为 75%。我的问题是 - 对于给定的行和预测分数 - 我可以解释哪些特征导致 1 或 0 预测?
【问题讨论】:
【参考方案1】:我为此使用了xgboostExplainer。这个 R 包为每个样本创建一个图,显示每个变量对最终预测的得分和累积贡献,例如
该样本被预测为阳性:
这个样本被预测为阴性:
条形的高度取决于变量的重要性以及该变量对该样本的得分,即对于给定的样本,您可以查看哪些变量对最终预测有贡献以及原因。
【讨论】:
谢谢,这正是我要找的,python 中有没有类似的包可以提供类似的输出? 据我所知。如果您需要特定于 python 的解决方案,请在您的问题中标记 python。以上是关于特征重要性可以用来解释模型预测的“为啥以及哪个特征有贡献”?的主要内容,如果未能解决你的问题,请参考以下文章
ML之shap:基于boston波士顿房价回归预测数据集利用shap值对XGBoost模型实现可解释性案例
R语言评估回归模型预测因素(变量特征)的相对重要性(Relative importance)将回归模型的预测变量标准化(scale)之后构建模型获得标准化回归系数来评估预测变量的相对重要性