RandomForestRegressor,特征重要性

Posted

技术标签:

【中文标题】RandomForestRegressor,特征重要性【英文标题】:RandomForestRegressor, feature importances 【发布时间】:2018-12-14 05:21:51 【问题描述】:

我使用随机森林回归器并拥有 43 个特征。 当我运行以下代码时:

print(clf.feature_importances_)

我得到下一个结果:

[0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]

我了解多少,我的随机森林模型只使用一个特征来预测结果?

好不好?

【问题讨论】:

你能把你试过的代码贴出来 看起来你有一个直接对应于目标的特性。您确定特征不包含任何只有在目标已知后才能知道的内容,或者您​​可能错误地将目标值用作特征中的一列? 【参考方案1】:

根据您的标签值绘制每个特征,并手动查看模型正在查看的内容以分析您的结果。还要检查模型的准确性,如果它不是很高,这也可能是您看到奇怪结果的原因。

【讨论】:

以上是关于RandomForestRegressor,特征重要性的主要内容,如果未能解决你的问题,请参考以下文章

RandomForestRegressor 和 feature_importances_ 错误

了解 RandomForestRegressor 中的 max_features 参数

如何在python中的sklearn中标记RandomForestRegressor中的特殊情况

获取数据框字典的特征重要性

RandomForestRegressor 只吐出 1 个预测

将 GridSearchCV 用于 RandomForestRegressor