首页文章正文

决策树的属性选择标准,决策树评判标准

决策树灵活划分 2024-01-04 11:35 394 墨鱼
决策树灵活划分

决策树的属性选择标准,决策树评判标准

有三种:最大信息增益、最大信息增益率、基尼系数而这三种不同的划分标准就对应了三种典型决策树:ID3(最大信息增益)、C4.5(最大信息增益率)、CART(基尼系数) A.ID3算法使用信息增益方法作为属性的选择标准,来帮助确定生成每个节点时所采用的合适属性B.C4.5决策树生成算法相对于ID3的改进是使用信息增益率来选择节点属性C.CART决策树

●▂● 信息增益越大,则意味着用属性a来进行划分所获得的“纯度提升”越大。著名的ID3决策树学习算法就是以信息增益为准则来选择划分属性。在西瓜书里有个很棒的实例划分属性选择:选择最大信息增益率的属性做划分。信息增益率的缺点:信息增益率虽然解决了信息增益的缺点,但是它倾向于产生不平衡的划分,其中一个分区比其他分区小得多。基尼指数

最大,所以选择属性“季节”作为根节点的分裂属性。3.停止分裂的条件停止分裂的条件已经在决策树中阐述,这里不再进行阐述。1)最小节点数当节点的数据量小于一个指定的数中国计算机学会第十届计算机工程与工艺学术年会决策树构造过程中测试属性的选择标准Thestandardofselectionfortestingattributeinthetectonicpr0CeSS0lneclsion

ゃōゃ 对于整体的数据集而言,按照所有的特征属性进行划分操作,对所有划分操作的结果集的“纯度”进行比较,选择“纯度”越高的特征属性作为当前需要分割的数据集进行分割操作,持续迭代,直2.2.2.Z-score规范化Z=(x-Ex)/6 (6:属性标准差;EX:属性平均值) 2.2.3.小数定标规范化V = v/Math.pow(10,n) ( n为使得Max(|v|)<1的最小整数) 986 -》0.986 数

决策树会首先挑选这个属性作为树的顶/结点;结果训练出来的形状是一棵庞大且深度很浅的树,这样的划分极不合理。信息增益率由于信息增益偏好取值多的属性(极限示例:以“信息增益”为标准构建决策树我们尝试以信息增益为标准,使用这些数据样本。在这里,我们有5列数据,其中4列是连续数据,第5列由类标签组成。A,B,C,D属

后台-插件-广告管理-内容页尾部广告(手机)

标签: 决策树评判标准

发表评论

评论列表

灯蓝加速器 Copyright @ 2011-2022 All Rights Reserved. 版权所有 备案号:京ICP1234567-2号