首页文章正文

决策树深度怎么看,决策树怎么看误判个数

决策树的理解 2023-03-12 22:56 992 墨鱼
决策树的理解

决策树深度怎么看,决策树怎么看误判个数

结果如下如所示,蓝线代表的是决策树深度为2时,所预测的结果;绿线代表决策树深度为5时,所预测的结果。从途中我们节点的深度可以理解为节点与决策树跟节点的距离,如果根节点的子节点的深度为1,因为这些节点与根节点的距离为1,子节点的深度比父节点的深度大1。决策树的深度是所有叶子节点的最大深

ˋ^ˊ 所有深度的最大值称为决策树深度,决策树的深度是模型的一个重要参数。决策树模型的种类在决策树的框架下,有几种不同的决策树模型相继被设计出来。常用的决策在python中决策数中默认的是gini系数,也可以选择信息增益的熵'entropy' max_depth:树的深度大小random_state:随机数种子如下我们使用泰坦尼克号的数据举例说明:# 首先导入需要的

dt_clf = DecisionTreeClassifier(max_depth=2,criterion='entropy') #决策树最大深度dt_clf.fit(X,y) #模型训练使用很简单,只要实例化好类之后,调用​​fit​​方法进行训练即可我正在用sklearn训练决策树。当我使用时:dt_clf = tree.DecisionTreeClassifier() max_depth参数默认为None。根据文档,如果max_depth为None,则节点将被扩展

决策树系列(3)决策树的深度达到指定的条件节点的深度可以理解为节点与决策树跟节点的距离,如根节点的子节点的深度为1,因为这些节点与跟节点的距离为1,子节点的深度要比我们构建决策树的主要工作是确定特征判断的先后顺序(比如使用信息增益选择当前使用哪个特征作为当前节点的特征判断)。决策树的基本想法是随着深度的增加,节点的熵迅速地降低。熵降

后台-插件-广告管理-内容页尾部广告(手机)

标签: 决策树怎么看误判个数

发表评论

评论列表

灯蓝加速器 Copyright @ 2011-2022 All Rights Reserved. 版权所有 备案号:京ICP1234567-2号