RandomForestRegressor,特征重要性
Posted
技术标签:
【中文标题】RandomForestRegressor,特征重要性【英文标题】:RandomForestRegressor, feature importances 【发布时间】:2018-12-14 05:21:51 【问题描述】:我使用随机森林回归器并拥有 43 个特征。 当我运行以下代码时:
print(clf.feature_importances_)
我得到下一个结果:
[0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
我了解多少,我的随机森林模型只使用一个特征来预测结果?
好不好?
【问题讨论】:
你能把你试过的代码贴出来 看起来你有一个直接对应于目标的特性。您确定特征不包含任何只有在目标已知后才能知道的内容,或者您可能错误地将目标值用作特征中的一列? 【参考方案1】:根据您的标签值绘制每个特征,并手动查看模型正在查看的内容以分析您的结果。还要检查模型的准确性,如果它不是很高,这也可能是您看到奇怪结果的原因。
【讨论】:
以上是关于RandomForestRegressor,特征重要性的主要内容,如果未能解决你的问题,请参考以下文章
RandomForestRegressor 和 feature_importances_ 错误
了解 RandomForestRegressor 中的 max_features 参数
如何在python中的sklearn中标记RandomForestRegressor中的特殊情况