决策树法分为那几个步骤
1、特征选择
特征选择决定了使用哪些特征来做判断。在训练数据集中,每个样本的属性可能有很多个,不同属性的作用有大有小。因而特征选择的作用就是筛选出跟分类结果相关性较高的特征,也就是分类能力较强的特征。在特征选择中通常使用的准则是:信息增益。
2、决策树生成
选择好特征后,就从根节点触发,对节点计算所有特征的信息增益,选择信息增益最大的特征作为节点特征,根据该特征的不同取值建立子节点;对每个子节点使用相同的方式生成新的子节点,直到信息增益很小或者没有特征可以选择为止。
3、决策树剪枝
剪枝的主要目的是对抗「过拟合」,通过主动去掉部分分支来降低过拟合的风险。
【简介】
决策树是一种解决分类问题的算法,决策树算法采用树形结构,使用层层推理来实现最终的分类。
1、绘制决策树图。从左到右的顺序画决策树,此过程本身就是对决策问题的再分析过程。
2、按从右到左的顺序计算各方案的期望值,并将结果写在相应方案节点上方。期望值的计算是从右到左沿着决策树的反方向进行计算的。
3、(3)对比各方案的期望值的大小,进行剪枝优选。在舍去备选方案枝上,用“=”记号隔断。
扩展资料:
决策树法的优点:
1、决策树列出了决策问题的全部可行方案和可能出现的各种自然状态,以及各可行方法在各种不同状态下的期望值。
2、能直观地显示整个决策问题在时间和决策顺序上不同阶段的决策过程。
3、在应用于复杂的多阶段决策时,阶段明显,层次清楚,便于决策机构集体研究,可以周密地思考各种因素,有利于作出正确的决策。
参考资料:百度百科--决策树法
推荐于2017-09-28
2022-08-03
第二,标注每一状态节点,分支出现的概率值
第三,进行计算 并且吧结果写在决策树的 树梢上
第四,把所有的结果用来进行比价,从而更直观的选择最佳方案