决策树


  决策树学习是机器学习管理学方法中的一种。这种方法将习得的训练集函数表示成树结构,通过它来近似离散值的目标函数。这种树结构是一种有向树,它以训练集的一个属性作节点,这个属性所对应的一个值作边。

  决策树一般都是自上而下的来生成的。每个决策或事件(即自然状态)都可能引出两个或多个事件,导致不同的结果,把这种决策分支画成图形很像一棵树的枝干,就称为决策树。

  决策树的优点:
  1) 可以生成可以理解的规则。
  2) 计算量相对来说不是很大。
  3)可以处理连续和种类字段。
  4)决策树可以清晰的显示哪些字段比较重要。

  决策树的缺点:
  1) 对连续性的字段比较难预测。
  2) 对有时间顺序的数据,需要很多预处理的工作。
  3) 当类别太多时,错误可能就会增加的比较快。
  4) 一般的算法分类的时候,只是根据一个字段来分类。

  选择分割的方法有好几种,但是目的都是一致的:对目标类尝试进行最佳的分割。

  从根到叶子节点都有一条路径,这条路径就是一条“规则”。

  决策树可以是二叉的,也可以是多叉的。

  对每个节点的衡量:
  1) 通过该节点的记录数
  2) 如果是叶子节点的话,分类的路径
  3) 对叶子节点正确分类的比例。
搜索关键字"决策树",一共有2个结果
决策树是怎么产生的
决策树是怎么产生的

决策树是对分类问题进行深入分析的一种方法,在实际问题中,按算法生成的决策树往往复杂而庞大,令用户难以理解。这就告诉我们在重分类精确性的同时,也要加强对树修剪的研究。

2014-11-18 决策树  +阅读全文

决策树算法
决策树算法

机器学习中,决策树是一个预测模型;它代表的是对象属性值与对象值之间的一种映射关系。树中每个节点表示某个对象,每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应具有上述属性值的子对象。决策树仅有单一输出;若需要多个输出,可以建立独立的决策树以处理不同输出。

2014-11-10 决策树  +阅读全文

    共 1 页/2 条记录
Copyright©彩票网投APP ALL Rights Reserved