学习中心
登录
已解决
关于决策树原理的疑问

由于 DecisionTreeClassifier我查资料获得这是用CART算法构建的决策树,CART算法构建出来都是二叉树。

我去查询了统计学习方法(第二版)李航著其中介绍了CART算法如下

问题1:这本书上介绍CART算法时与老师代码中步骤有出入,请问是什么原因?

4cf104fc86f7880ae6924ea37df3a521.jpg

14c99166d92a742f62f97370430f5c31.jpg

5c3b8d3b3e2eee9e0b7c9823d3558577.jpg

在这本书中介绍的CART算法对于某一列数据中可能会出现3个取值(如视频例子中好友密度的’s’‘l’‘m’,对于数值0,1,2)算基尼系数时Gini(D,A1=0)Gini(D,A1=1)Gini(D,A1=2)要计算3个基尼系数,但是老师的代码却是(如视频例子中好友密度的’s’‘l’‘m’,对于数值0,1,2)算基尼系数时是先0~1之间取均值0.5,1~2之间取均值1.5,计算Gini(D,A1=0.5)和Gini(D,A1=1.5)正如问题1,我不是很理解视频中老师为什么要这么操作以及python中输出的结果跟老师是一致的

问题二,既然 DecisionTreeClassifier是用CART算法,CART算法是基于基尼系数的,用信息熵是不是有点问题

75 1
    1个回答
    写回答