CART与普通决策树的区别

CART可以说是最常用的数,gbdt,xgboost等等…

归纳一下其与普通决策树(ID3,C4.5)的区别:

  • 既可以分类,也可以回归。在分类时使用基尼系数,在回归时使用平方误差。
  • 只划分左右子树,也就是生成一个二叉树。普通决策树生成多个子树
  • 特征在被选择后,在接下来的树中还能被继续使用。普通决策树只使用特征一次。
  • 连续特征,n个值,从n-1个中间值中选择;离散特征,n个值,有$2^{(n-1)} - 1$个选择可能(通常是one hot编码)。

CART与普通决策树的区别
http://yoursite.com/2019/04/29/机器学习/CART与普通决策树的区别/
作者
Wei Lyu
发布于
2019年4月29日
许可协议