从 RandomForestRegressor() 或 RandomForestClassifier() 获取 feature_importances_ 以解决回归和分类问题
Posted
技术标签:
【中文标题】从 RandomForestRegressor() 或 RandomForestClassifier() 获取 feature_importances_ 以解决回归和分类问题【英文标题】:Getting feature_importances_ from RandomForestRegressor() or RandomForestClassifier() for regression and classification problems 【发布时间】:2020-04-07 11:59:45 【问题描述】:feature_importance_
矩阵与 RandomForestClassifier()
和 RandomForestRegressor()
之间存在差异。
那么如果我想获得分类/回归问题的最佳特征,我应该根据 class/reg 问题选择哪一个?
【问题讨论】:
【参考方案1】:feature_importance_
给出了随机森林的相对重要性。关于回归器或分类器之间的选择,这将取决于您的目标和您正在解决的问题。如果您的目标是离散的,则您可能有分类问题。如果它是连续的,你就有一个回归问题。
但是,请注意feature_importance_
有限制,应谨慎使用。你最好使用permutation_importance
。您可以查看示例,该示例解释了低基数功能的问题,feature_importance_
报告的重要性较低:https://scikit-learn.org/stable/auto_examples/inspection/plot_permutation_importance.html#sphx-glr-auto-examples-inspection-plot-permutation-importance-py
【讨论】:
以上是关于从 RandomForestRegressor() 或 RandomForestClassifier() 获取 feature_importances_ 以解决回归和分类问题的主要内容,如果未能解决你的问题,请参考以下文章
了解 RandomForestRegressor 中的 max_features 参数
找到样本数量不一致的输入变量:RandomForestRegressor 的 [1, 4] 错误
RandomForestRegressor 只吐出 1 个预测
将 GridSearchCV 用于 RandomForestRegressor