首页文章正文

决策树如何选择最优划分属性,决策树算法做分类任务时

决策树的属性选择标准 2024-01-04 11:35 940 墨鱼
决策树的属性选择标准

决策树如何选择最优划分属性,决策树算法做分类任务时

划分选择由决策树学习基本算法可看出,决策树学习的关键是第8行,即如何选择最优划分属性.一般而言,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得各个子数据集有一个最好的分类的过程。这一过程对应着对特征空间的划分,

∩▂∩ 最大,所以选择属性“季节”作为根节点的分裂属性。3.停止分裂的条件停止分裂的条件已经在决策树中阐述,这里不再进行阐述。1)最小节点数当节点的数据量小于一个指定的数可以清晰看出,根据现在的数据,我们能对每个特征构建一个二叉决策树,我们把性别、年龄、舱位特征分别表示

在每一次划分时,决策树需要选择最优的属性来进行划分,以使得划分后的数据纯度最高或者信息增益最大。三种最优属性划分方法包括信息增益、增益率和基尼指数。1.信息增益:信1.ID3算法:以信息增益为准则来选择最优划分属性信息增益的计算是基于信息熵(度量样本集合纯度的指标)。信息熵越小,数据集的纯度越大。假设基于数据集上建立决策树,数据有个类别:

于是,我们在候选集属性集合A中,选择那个使得划分后基尼指数最小的属性作为最优划分属性。三、剪枝处理剪枝(pruning)是决策树学习算法对付“过拟合”的主要决策树学习的关键在于如何选择最优划分属性,经典的属性划分方法主要包括()A.结点纯度B.信息增益C.增益率D.基尼指数

后台-插件-广告管理-内容页尾部广告(手机)

标签: 决策树算法做分类任务时

发表评论

评论列表

灯蓝加速器 Copyright @ 2011-2022 All Rights Reserved. 版权所有 备案号:京ICP1234567-2号