随机森林算法小结
2017-01-12 10:41
417 查看
随机森林算法
1.随机森林原理介绍
Random Forest 是 ensemble learning (集成学习?)算法的一种,它利用多棵树对样本进行训练并预测的一种分类器,同样也可用户回归,其输出的类别是由个别树输出的类别的众数而定。该算法最早由Leo Breiman和Adele Cutler提出, 而”Random Forests”是他们注册的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。1
简单来说,随机森林就是由多棵CART(Classification And Regression Tree)构成的。对于每棵树,它们使用的训练集是从总的训练集中有放回采样出来的,这意味着,总的训练集中的有些样本可能多次出现在一棵树的训练集中,也可能从未出现在一棵树的训练集中。
2.随机森林训练过程
用N来表示训练用例(样本)的个数,M表示特征数目。从N个训练样本中以有放回抽样的方式,取样N次,形成一个训练集(即bootstrap取样),并用未抽到的用例(样本)作预测,评估其误差。
输入特征数目m,用于确定决策树上一个节点的决策结果;其中m<<M2。
对于每一个节点(每个样本有M个属性时),随机选择m个特征,采用某种策略(比如信息增益)来选择1个属性作为该节点的分裂属性并进行分裂。
每棵树都会完整成长而不会剪枝(Pruning,这有可能在建完一棵正常树状分类器后会被采用)。
将生成的多棵分类树组成随机森林,用随机森林分类器对新的数据进行判别与分类,分类结果按树分类器的投票多少而定。
3.比较
sklearn给出的图像展示了单个决策树、随机森林和其他算法的决策边界和模型容量DecisionTree with features [0, 1] has a score of 0.926666666667 RandomForest with 30 estimators with features [0, 1] has a score of 0.926666666667 ExtraTrees with 30 estimators with features [0, 1] has a score of 0.926666666667 AdaBoost with 30 estimators with features [0, 1] has a score of 0.84 DecisionTree with features [0, 2] has a score of 0.993333333333 RandomForest with 30 estimators with features [0, 2] has a score of 0.993333333333 ExtraTrees with 30 estimators with features [0, 2] has a score of 0.993333333333 AdaBoost with 30 estimators with features [0, 2] has a score of 0.993333333333 DecisionTree with features [2, 3] has a score of 0.993333333333 RandomForest with 30 estimators with features [2, 3] has a score of 0.993333333333 ExtraTrees with 30 estimators with features [2, 3] has a score of 0.993333333333 AdaBoost with 30 estimators with features [2, 3] has a score of 0.993333333333
4.优缺点
优点
在数据集上表现良好,两个随机性的引入,使得随机森林不容易陷入过拟合在当前的很多数据集上,相对其他算法有着很大的优势
能够处理很高维度的数据,并且不用做特征选择,对数据集的适应能力强:既能处理离散型数据,也能处理连续型数据,数据集无需规范化
可生成一个Proximities=(pij)矩阵,用于度量样本之间的相似性: pij=aij/N, aij表示样本i和j出现在随机森林中同一个叶子结点的次数,N随机森林中树的颗数
在创建随机森林的时候,对generlization error使用的是无偏估计
在训练过程中,能够检测到feature间的互相影响
容易做成并行化方法
缺点
RF 算法的主要缺点就是模型规模。模型很容易就以会花费成百上千兆字节内存,最后会因为评估速度慢而结束。另一个可能会引发担忧的缺点就是随机森林模型过程是很难解释清楚的黑箱。https://zh.wikipedia.org/wiki/%E9%9A%8F%E6%9C%BA%E6%A3%AE%E6%9E%97 ↩
在训练每棵树的节点时,使用的特征是从所有特征中按照一定比例随机地无放回的抽取的,根据Leo Breiman的建议,假设总的特征数量为M,这个比例可以是M−−√,12M−−√,2M−−√ 。 ↩
相关文章推荐
- Bagging与随机森林算法原理小结
- Bagging与随机森林算法原理小结
- Bagging与随机森林算法原理小结
- Bagging与随机森林算法原理小结
- Bagging与随机森林算法原理小结(详解)
- Bagging与随机森林算法原理小结
- (转载)机器学习知识点(十七)Bagging与随机森林算法原理小结
- 【集成学习】Bagging与随机森林算法原理小结
- 随机森林算法原理小结
- 用随机森林分类算法进行Iris 数据分类训练,是怎样的体验?
- 【集成学习】scikit-learn随机森林调参小结
- 随机森林算法构建岩石水雷分类器
- scikit-learn随机森林调参小结
- 随机森林算法精讲博客收藏
- 随机森林算法 连接超时问题;
- 三个臭皮匠顶个诸葛亮的随机森林算法!
- R语言︱机器学习模型评估方案(以随机森林算法为例)
- scikit-learn随机森林调参小结
- spark mllib中的随机森林算法,实现源码以及使用介绍
- 随机森林—bagging算法的代表作