scikit-learn 决策树节点深度

Posted

技术标签:

【中文标题】scikit-learn 决策树节点深度【英文标题】:scikit-learn decision tree node depth 【发布时间】:2017-01-21 10:21:59 【问题描述】:

我的目标是确定决策树中两个样本分离的深度。在 scikit-learn 的开发版本中,您可以使用decision_path() 方法识别到最后一个公共节点:

from sklearn import tree
import numpy as np

clf = tree.DecisionTreeClassifier()
clf.fit(data, outcomes)
n_nodes = clf.tree_.node_count
node_indicator = clf.decision_path(data).toarray()
sample_ids = [0,1]
common_nodes = (node_indicator[sample_ids].sum(axis=0) == len(sample_ids))
common_node_id = np.arange(n_nodes)[common_nodes]
max_node = np.max(common_node_id)

有没有办法确定max_node 在树中出现的深度,可能是clf.tree_.children_rightclf.tree_.chrildren_left

【问题讨论】:

【参考方案1】:

这是一个可以用来递归遍历节点并计算节点深度的函数

def get_node_depths(tree):
    """
    Get the node depths of the decision tree

    >>> d = DecisionTreeClassifier()
    >>> d.fit([[1,2,3],[4,5,6],[7,8,9]], [1,2,3])
    >>> get_node_depths(d.tree_)
    array([0, 1, 1, 2, 2])
    """
    def get_node_depths_(current_node, current_depth, l, r, depths):
        depths += [current_depth]
        if l[current_node] != -1 and r[current_node] != -1:
            get_node_depths_(l[current_node], current_depth + 1, l, r, depths)
            get_node_depths_(r[current_node], current_depth + 1, l, r, depths)

    depths = []
    get_node_depths_(0, 0, tree.children_left, tree.children_right, depths) 
    return np.array(depths)

【讨论】:

以上是关于scikit-learn 决策树节点深度的主要内容,如果未能解决你的问题,请参考以下文章

为决策树中的每个数据点找到对应的叶节点(scikit-learn)

scikit-learn 将每个叶节点的决策标签保存在其树结构中的啥位置?

编辑 scikit-learn 决策树

编辑 scikit-learn 决策树

scikit-learn决策树回归:检索叶子的所有样本(不是平均值)

决策树的特征重要性提取(scikit-learn)