决策树分类器与极端随机树分类器

9
我正在尝试确定scikit-learn包中哪种决策树方法更适合我执行分类任务的需求。然而,我发现有两种可用的决策树模型:
- 基于优化CART算法的标准DecisionTreeClassifier,来自scikit.tree包。 - 来自scikit.ensemble包的集成方法ExtraTreeClassifier。
有人能具体说明使用每个模型的优缺点吗?
1个回答

17
ExtraTreeClassifierDecisionTreeClassifier的一种极度随机版本,旨在作为ExtraTreesClassifier集成的一部分内部使用。 平均集成(如RandomForestClassifierExtraTreesClassifier)旨在解决个体DecisionTreeClassifier实例的方差问题(对训练集中小改变缺乏鲁棒性)。
如果您的主要目标是最大化预测准确性,则应该几乎总是使用决策树集合(例如ExtraTreesClassifier,或者选择 提升集成)而不是训练单独的决策树。
请查看原始Extra Trees paper获取更多详细信息。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接