scikit-learn RandomForestClassifier 中的特征重要性和森林结构如何相关?

Posted

技术标签:

【中文标题】scikit-learn RandomForestClassifier 中的特征重要性和森林结构如何相关?【英文标题】:How feature importance and forest structures are related in scikit-learn RandomForestClassifier? 【发布时间】:2017-02-08 20:02:47 【问题描述】:

这是我的问题的一个简单示例,使用 Iris 数据集。 当我试图理解如何计算特征重要性以及在使用export_graphviz 可视化估计器森林时这是如何可见的时,我感到很困惑。 这是我的代码:

import pandas as pd
import numpy as np
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt

data = load_iris()
X = pd.DataFrame(data=data.data,columns=['sepallength', 'sepalwidth', 'petallength','petalwidth'])
y = pd.DataFrame(data=data.target)

from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=42)

from sklearn.ensemble import RandomForestClassifier
rf = RandomForestClassifier(n_estimators=2,max_depth=1)
rf.fit(X_train,y_train.iloc[:,0])

分类器表现不佳(得分为 0.68),因为森林包含 2 棵深度为 1 的树。无论如何这在这里无关紧要。

特征重要性检索如下:

importances = rf.feature_importances_
std = np.std([rf.feature_importances_ for tree in rf.estimators_],axis=0)
indices = np.argsort(importances)[::-1]

print("Feature ranking:")
for f in range(X.shape[1]):
    print("%d. feature %s (%f)" % (f + 1, X.columns.tolist()[f], importances[indices[f]]))

输出是:

Feature ranking:
1. feature sepallength (1.000000)
2. feature sepalwidth (0.000000)
3. feature petallength (0.000000)
4. feature petalwidth (0.000000)

现在显示使用以下代码构建的树的结构时:

from sklearn.tree import export_graphviz
export_graphviz(rf.estimators_[0],
                feature_names=X.columns,
                filled=True,
                rounded=True)
!dot -Tpng tree.dot -o tree0.png
from IPython.display import Image
Image('tree0.png')

我得到这两个数字

#0 树的导出:

树 #1 的导出:

我不明白sepallength 怎么可以有 importance=1 但不能用于 两个树中的节点拆分(仅使用petallength),如图所示。

【问题讨论】:

【参考方案1】:

你有一个错误

for f in range(X.shape[1]):
    print("%d. feature %s (%f)" % (f + 1, X.columns.tolist()[f], importances[indices[f]]))

如果您使用indices = np.argsort(importances)[::-1] 置换,那么您需要置换所有内容 - 不要按照一个顺序保留标签,按照不同的顺序保留重要性。

如果你把上面的替换为

for f in range(X.shape[1]):
    print("%d. feature %s (%f)" % (f + 1, X.columns.tolist()[f], importances[f]))

那么森林和它的树都一致认为索引 2 处的特征是唯一具有任何重要性的特征。

【讨论】:

以上是关于scikit-learn RandomForestClassifier 中的特征重要性和森林结构如何相关?的主要内容,如果未能解决你的问题,请参考以下文章

如何从 python 输出 RandomForest 分类器?

scikit-learn随机森林调参小结

转载:scikit-learn随机森林调参小结

使用 scikit-learn 并行生成随机森林

如何在 scikit-learn 的随机森林的 graphviz-graph 中找到一个类?

在 Python Scikit-Learn 中训练测试拆分得分高但 CV 得分低