0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

随机森林算法及其实现

新机器视觉 来源:新机器视觉 2023-05-15 09:46 次阅读

1 什么是随机森林?

作为新兴起的、高度灵活的一种机器学习算法,随机森林(Random Forest,简称RF)拥有广泛的应用前景,从市场营销到医疗保健保险,既可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风险和病患者的易感性。最初,我是在参加校外竞赛时接触到随机森林算法的。最近几年的国内外大赛,包括2013年百度校园电影推荐系统大赛、2014年阿里巴巴天池大数据竞赛以及Kaggle数据科学竞赛,参赛者对随机森林的使用占有相当高的比例。此外,据我的个人了解来看,一大部分成功进入答辩的队伍也都选择了Random Forest 或者 GBDT 算法。所以可以看出,Random Forest在准确率方面还是相当有优势的。

那说了这么多,那随机森林到底是怎样的一种算法呢?

如果读者接触过决策树(Decision Tree)的话,那么会很容易理解什么是随机森林。随机森林就是通过集成学习的思想将多棵树集成的一种算法,它的基本单元是决策树,而它的本质属于机器学习的一大分支——集成学习(Ensemble Learning)方法。随机森林的名称中有两个关键词,一个是“随机”,一个就是“森林”。“森林”我们很好理解,一棵叫做树,那么成百上千棵就可以叫做森林了,这样的比喻还是很贴切的,其实这也是随机森林的主要思想--集成思想的体现。“随机”的含义我们会在下边部分讲到。

其实从直观角度来解释,每棵决策树都是一个分类器(假设现在针对的是分类问题),那么对于一个输入样本,N棵树会有N个分类结果。而随机森林集成了所有的分类投票结果,将投票次数最多的类别指定为最终的输出,这就是一种最简单的 Bagging 思想。

回到顶部

2 随机森林的特点

我们前边提到,随机森林是一种很灵活实用的方法,它有如下几个特点:

  • 在当前所有算法中,具有极好的准确率/It is unexcelled in accuracy among current algorithms;

  • 能够有效地运行在大数据集上/It runs efficiently on large data bases;

  • 能够处理具有高维特征的输入样本,而且不需要降维/It can handle thousands of input variables without variable deletion;

  • 能够评估各个特征在分类问题上的重要性/It gives estimates of what variables are important in the classification;

  • 在生成过程中,能够获取到内部生成误差的一种无偏估计/It generates an internal unbiased estimate of the generalization error as the forest building progresses;

  • 对于缺省值问题也能够获得很好得结果/It has an effective method for estimating missing data and maintains accuracy when a large proportion of the data are missing

  • ... ...

实际上,随机森林的特点不只有这六点,它就相当于机器学习领域的Leatherman(多面手),你几乎可以把任何东西扔进去,它基本上都是可供使用的。在估计推断映射方面特别好用,以致都不需要像SVM那样做很多参数的调试。具体的随机森林介绍可以参见随机森林主页:Random Forest。

回到顶部

3 随机森林的相关基础知识

随机森林看起来是很好理解,但是要完全搞明白它的工作原理,需要很多机器学习方面相关的基础知识。在本文中,我们简单谈一下,而不逐一进行赘述,如果有同学不太了解相关的知识,可以参阅其他博友的一些相关博文或者文献。

1)信息、熵以及信息增益的概念

这三个基本概念是决策树的根本,是决策树利用特征来分类时,确定特征选取顺序的依据。理解了它们,决策树你也就了解了大概。

引用香农的话来说,信息是用来消除随机不确定性的东西。当然这句话虽然经典,但是还是很难去搞明白这种东西到底是个什么样,可能在不同的地方来说,指的东西又不一样。对于机器学习中的决策树而言,如果带分类的事物集合可以划分为多个类别当中,则某个类(xi)的信息可以定义如下:

b1a4812c-f2b5-11ed-90ce-dac502259ad0.png

I(x)用来表示随机变量的信息,p(xi)指是当xi发生时的概率。

熵是用来度量不确定性的,当熵越大,X=xi的不确定性越大,反之越小。对于机器学习中的分类问题而言,熵越大即这个类别的不确定性更大,反之越小。

信息增益在决策树算法中是用来选择特征的指标,信息增益越大,则这个特征的选择性越好。

这方面的内容不再细述,感兴趣的同学可以看信息&熵&信息增益这篇博文。

2)决策树

决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。常见的决策树算法有C4.5、ID3和CART。

3)集成学习

集成学习通过建立几个模型组合的来解决单一预测问题。它的工作原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的做出预测。

随机森林是集成学习的一个子类,它依靠于决策树的投票选择来决定最后的分类结果。你可以在这找到用python实现集成学习的文档:Scikit 学习文档。

回到顶部

4 随机森林的生成

前面提到,随机森林中有许多的分类树。我们要将一个输入样本进行分类,我们需要将输入样本输入到每棵树中进行分类。打个形象的比喻:森林中召开会议,讨论某个动物到底是老鼠还是松鼠,每棵树都要独立地发表自己对这个问题的看法,也就是每棵树都要投票。该动物到底是老鼠还是松鼠,要依据投票情况来确定,获得票数最多的类别就是森林的分类结果。森林中的每棵树都是独立的,99.9%不相关的树做出的预测结果涵盖所有的情况,这些预测结果将会彼此抵消。少数优秀的树的预测结果将会超脱于芸芸“噪音”,做出一个好的预测。将若干个弱分类器的分类结果进行投票选择,从而组成一个强分类器,这就是随机森林bagging的思想(关于bagging的一个有必要提及的问题:bagging的代价是不用单棵决策树来做预测,具体哪个变量起到重要作用变得未知,所以bagging改进了预测准确率但损失了解释性。)。下图可以形象地描述这个情况:

b1b92514-f2b5-11ed-90ce-dac502259ad0.png

有了树我们就可以分类了,但是森林中的每棵树是怎么生成的呢?

每棵树的按照如下规则生成:

1)如果训练集大小为N,对于每棵树而言,随机且有放回地从训练集中的抽取N个训练样本(这种采样方式称为bootstrap sample方法),作为该树的训练集;

从这里我们可以知道:每棵树的训练集都是不同的,而且里面包含重复的训练样本(理解这点很重要)。

为什么要随机抽样训练集?(add @2016.05.28)

如果不进行随机抽样,每棵树的训练集都一样,那么最终训练出的树分类结果也是完全一样的,这样的话完全没有bagging的必要;

为什么要有放回地抽样?(add @2016.05.28)

我理解的是这样的:如果不是有放回的抽样,那么每棵树的训练样本都是不同的,都是没有交集的,这样每棵树都是"有偏的",都是绝对"片面的"(当然这样说可能不对),也就是说每棵树训练出来都是有很大的差异的;而随机森林最后分类取决于多棵树(弱分类器)的投票表决,这种表决应该是"求同",因此使用完全不同的训练集来训练每棵树这样对最终分类结果是没有帮助的,这样无异于是"盲人摸象"。

2)如果每个样本的特征维度为M,指定一个常数m<

3)每棵树都尽最大程度的生长,并且没有剪枝过程。

一开始我们提到的随机森林中的“随机”就是指的这里的两个随机性。两个随机性的引入对随机森林的分类性能至关重要。由于它们的引入,使得随机森林不容易陷入过拟合,并且具有很好得抗噪能力(比如:对缺省值不敏感)。

随机森林分类效果(错误率)与两个因素有关:

  • 森林中任意两棵树的相关性:相关性越大,错误率越大;

  • 森林中每棵树的分类能力:每棵树的分类能力越强,整个森林的错误率越低。

减小特征选择个数m,树的相关性和分类能力也会相应的降低;增大m,两者也会随之增大。所以关键问题是如何选择最优的m(或者是范围),这也是随机森林唯一的一个参数。

回到顶部

5 袋外错误率(oob error)

上面我们提到,构建随机森林的关键问题就是如何选择最优的m,要解决这个问题主要依据计算袋外错误率oob error(out-of-bag error)。

随机森林有一个重要的优点就是,没有必要对它进行交叉验证或者用一个独立的测试集来获得误差的一个无偏估计。它可以在内部进行评估,也就是说在生成的过程中就可以对误差建立一个无偏估计。

我们知道,在构建每棵树时,我们对训练集使用了不同的bootstrap sample(随机且有放回地抽取)。所以对于每棵树而言(假设对于第k棵树),大约有1/3的训练实例没有参与第k棵树的生成,它们称为第k棵树的oob样本。

而这样的采样特点就允许我们进行oob估计,它的计算方式如下:

(note:以样本为单位)

1)对每个样本,计算它作为oob样本的树对它的分类情况(约1/3的树);

2)然后以简单多数投票作为该样本的分类结果;

3)最后用误分个数占样本总数的比率作为随机森林的oob误分率。

(文献原文:Put each case left out in the construction of the kth tree down the kth tree to get a classification. In this way, a test set classification is obtained for each case in about one-third of the trees. At the end of the run, take j to be the class that got most of the votes every time case n was oob. The proportion of times that j is not equal to the true class of n averaged over all cases is the oob error estimate. This has proven to be unbiased in many tests.)

oob误分率是随机森林泛化误差的一个无偏估计,它的结果近似于需要大量计算的k折交叉验证。

回到顶部

6 随机森林工作原理解释的一个简单例子

描述:根据已有的训练集已经生成了对应的随机森林,随机森林如何利用某一个人的年龄(Age)、性别(Gender)、教育情况(Highest Educational Qualification)、工作领域(Industry)以及住宅地(Residence)共5个字段来预测他的收入层次。

收入层次 :

Band 1 : Below $40,000

Band 2: $40,000 –150,000

Band 3: More than $150,000

随机森林中每一棵树都可以看做是一棵CART(分类回归树),这里假设森林中有5棵CART树,总特征个数N=5,我们取m=1(这里假设每个CART树对应一个不同的特征)。

CART 1 : Variable Age

b1d9f2ee-f2b5-11ed-90ce-dac502259ad0.png

CART 2 : VariableGender

b1f52708-f2b5-11ed-90ce-dac502259ad0.png

CART 3 : Variable Education

b209d036-f2b5-11ed-90ce-dac502259ad0.png

CART 4 : VariableResidence

b21a867e-f2b5-11ed-90ce-dac502259ad0.png

CART 5 : VariableIndustry

b22ea8ca-f2b5-11ed-90ce-dac502259ad0.png

我们要预测的某个人的信息如下:

1. Age : 35 years ; 2. Gender : Male ; 3. Highest Educational Qualification : Diploma holder; 4. Industry : Manufacturing; 5. Residence : Metro.

根据这五棵CART树的分类结果,我们可以针对这个人的信息建立收入层次的分布情况:

b2444ca2-f2b5-11ed-90ce-dac502259ad0.png

最后,我们得出结论,这个人的收入层次70%是一等,大约24%为二等,6%为三等,所以最终认定该人属于一等收入层次(小于$40,000)。

回到顶部

7 随机森林的Python实现

利用Python的两个模块,分别为pandas和scikit-learn来实现随机森林。

b257eea6-f2b5-11ed-90ce-dac502259ad0.jpg


					
  1. from sklearn.datasets import load_iris

  2. from sklearn.ensemble import RandomForestClassifier

  3. import pandas as pd

  4. import numpy as np

  5. iris = load_iris()

  6. df = pd.DataFrame(iris.data, columns=iris.feature_names)

  7. df['is_train'] = np.random.uniform(0, 1, len(df)) <= .75

  8. df['species'] = pd.Factor(iris.target, iris.target_names)

  9. df.head()

  10. train, test = df[df['is_train']==True], df[df['is_train']==False]

  11. features = df.columns[:4]

  12. clf = RandomForestClassifier(n_jobs=2)

  13. y, _ = pd.factorize(train['species'])

  14. clf.fit(train[features], y)

  15. preds = iris.target_names[clf.predict(test[features])]

  16. pd.crosstab(test['species'], preds, rownames=['actual'], colnames=['preds'])

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg

分类结果:

b27b90b8-f2b5-11ed-90ce-dac502259ad0.png

与其他机器学习分类算法进行对比:

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg


					
  1. import numpy as np

  2. import matplotlib.pyplot as plt

  3. from matplotlib.colors import ListedColormap

  4. from sklearn.cross_validation import train_test_split

  5. from sklearn.preprocessing import StandardScaler

  6. from sklearn.datasets import make_moons, make_circles, make_classification

  7. from sklearn.neighbors import KNeighborsClassifier

  8. from sklearn.svm import SVC

  9. from sklearn.tree import DecisionTreeClassifier

  10. from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier

  11. from sklearn.naive_bayes import GaussianNB

  12. from sklearn.lda import LDA

  13. from sklearn.qda import QDA

  14. h = .02 # step size in the mesh

  15. names = ["Nearest Neighbors", "Linear SVM", "RBF SVM", "Decision Tree",

  16. "Random Forest", "AdaBoost", "Naive Bayes", "LDA", "QDA"]

  17. classifiers = [

  18. KNeighborsClassifier(3),

  19. SVC(kernel="linear", C=0.025),

  20. SVC(gamma=2, C=1),

  21. DecisionTreeClassifier(max_depth=5),

  22. RandomForestClassifier(max_depth=5, n_estimators=10, max_features=1),

  23. AdaBoostClassifier(),

  24. GaussianNB(),

  25. LDA(),

  26. QDA()]

  27. X, y = make_classification(n_features=2, n_redundant=0, n_informative=2,

  28. random_state=1, n_clusters_per_class=1)

  29. rng = np.random.RandomState(2)

  30. X += 2 * rng.uniform(size=X.shape)

  31. linearly_separable = (X, y)

  32. datasets = [make_moons(noise=0.3, random_state=0),

  33. make_circles(noise=0.2, factor=0.5, random_state=1),

  34. linearly_separable

  35. ]

  36. figure = plt.figure(figsize=(27, 9))

  37. i = 1

  38. # iterate over datasets

  39. for ds in datasets:

  40. # preprocess dataset, split into training and test part

  41. X, y = ds

  42. X = StandardScaler().fit_transform(X)

  43. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4)

  44. x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5

  45. y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5

  46. xx, yy = np.meshgrid(np.arange(x_min, x_max, h),

  47. np.arange(y_min, y_max, h))

  48. # just plot the dataset first

  49. cm = plt.cm.RdBu

  50. cm_bright = ListedColormap(['#FF0000', '#0000FF'])

  51. ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

  52. # Plot the training points

  53. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

  54. # and testing points

  55. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright, alpha=0.6)

  56. ax.set_xlim(xx.min(), xx.max())

  57. ax.set_ylim(yy.min(), yy.max())

  58. ax.set_xticks(())

  59. ax.set_yticks(())

  60. i += 1

  61. # iterate over classifiers

  62. for name, clf in zip(names, classifiers):

  63. ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

  64. clf.fit(X_train, y_train)

  65. score = clf.score(X_test, y_test)

  66. # Plot the decision boundary. For that, we will assign a color to each

  67. # point in the mesh [x_min, m_max]x[y_min, y_max].

  68. if hasattr(clf, "decision_function"):

  69. Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])

  70. else:

  71. Z = clf.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1]

  72. # Put the result into a color plot

  73. Z = Z.reshape(xx.shape)

  74. ax.contourf(xx, yy, Z, cmap=cm, alpha=.8)

  75. # Plot also the training points

  76. ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

  77. # and testing points

  78. ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,

  79. alpha=0.6)

  80. ax.set_xlim(xx.min(), xx.max())

  81. ax.set_ylim(yy.min(), yy.max())

  82. ax.set_xticks(())

  83. ax.set_yticks(())

  84. ax.set_title(name)

  85. ax.text(xx.max() - .3, yy.min() + .3, ('%.2f' % score).lstrip('0'),

  86. size=15, horizontalalignment='right')

  87. i += 1

  88. figure.subplots_adjust(left=.02, right=.98)

  89. plt.show()

b26c3a3c-f2b5-11ed-90ce-dac502259ad0.jpg

b2b4fc18-f2b5-11ed-90ce-dac502259ad0.png

这里随机生成了三个样本集,分割面近似为月形、圆形和线形的。我们可以重点对比一下决策树和随机森林对样本空间的分割:

1)从准确率上可以看出,随机森林在这三个测试集上都要优于单棵决策树,90%>85%,82%>80%,95%=95%;

2)从特征空间上直观地可以看出,随机森林比决策树拥有更强的分割能力(非线性拟合能力)。

更多有关随机森林的代码:

1)Fortran版本

2)OpenCV版本

3)Matlab版本

4)R版本

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4455

    浏览量

    90755
  • 分类器
    +关注

    关注

    0

    文章

    152

    浏览量

    13113
  • python
    +关注

    关注

    51

    文章

    4675

    浏览量

    83466

原文标题:随机森林算法及其实现

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    机器学习算法随机森林算法详解及工作原理图解

    随机森林是一种灵活且易于使用的机器学习算法,即便没有超参数调优,也可以在大多数情况下得到很好的结果。它也是最常用的算法之一,因为它很简易,既可用于分类也能用于回归任务。 在这篇文章中,
    的头像 发表于 03-14 16:10 31.6w次阅读
    机器学习<b class='flag-5'>算法</b>之<b class='flag-5'>随机</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>详解及工作原理图解

    机器学习随机森林相关知识

    机器学习之随机森林(三)
    发表于 04-02 10:06

    随机森林的相关知识

    机器学习之随机森林(一)
    发表于 08-27 07:30

    ML之决策树与随机森林

    ML--决策树与随机森林
    发表于 07-08 12:31

    一种GA算法的改进及其实现

    提出最优结果记录的GA 改进算法,使用MATLAB 语言编制了GA 及其改进算法实现程序,用无人驾驶汽车智能控制器设计检验了改进算法的有效
    发表于 08-07 10:08 11次下载

    随机森林的跌倒检测算法

    针对现有跌倒检测算法由于缺乏真实老人跌倒样本以及使用年轻人仿真跌倒样本规模较小导致的过拟合和适应性不足等问题,提出了基于随机森林的跌倒检测算法。该
    发表于 12-29 14:50 2次下载

    面向随机森林的差分隐私保护算法

    提出一种基于随机森林的差分隐私保护算法DiffPRFs,在每一棵决策树的构建过程中采用指数机制选择分裂点和分裂属性,并根据拉普拉斯机制添加噪声。在整个算法过程中满足差分隐私保护需求,相
    发表于 02-08 17:10 3次下载

    浅谈机器学习技术中的随机森林算法

    本次主题是随机森林,杰里米(讲师)提供了一些基本信息以及使用Jupyter Notebook的提示和技巧。 Jeremy谈到的一些重要的事情是,数据科学并不等同于软件工程。 在数据科学中,我们
    的头像 发表于 09-29 15:34 1557次阅读

    一种基于数据集成的随机森林算法

    用于销售预测的历史数据存在稀疏性与波动性等特点,当预测周期较长时,传统统计学或者机器学习领域预测算法的预测效果较差。为此,利用随机森林的集成思想与训练数据集的随机分割重组,提出一种基于
    发表于 03-16 11:37 12次下载
    一种基于数据集成的<b class='flag-5'>随机</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>

    基于k近邻的完全随机森林算法KCRForest

    针对有新类的动态数据流分类算法检测新类性能不高的问题,提出一种基于k近邻的完全随机森林算法( Kcrforest)。该算法利用动态数据流中已
    发表于 04-02 10:01 17次下载
    基于k近邻的完全<b class='flag-5'>随机</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>KCRForest

    基于遗传算法随机森林的XGBoost改进方法

    回归预测是机器学习中重要的研究方向之一,有着广阔的应用领域。为了进一步提升回归预测的精度,提出了基于遗传算法随机森林的 Gboost改进方法( GA Xgboost_RF)。首先利用遗传算法
    发表于 04-26 15:44 6次下载
    基于遗传<b class='flag-5'>算法</b>和<b class='flag-5'>随机</b><b class='flag-5'>森林</b>的XGBoost改进方法

    面向差分数据挖掘隐私保护的随机森林算法

    数据挖掘中的隐私保护问题是目前信息安全领域的研究热点之一。针对隐私保护要求下的分类问题,提出一种面向差分隐私保护的随机森林算法 REDPP-Gini。将随机
    发表于 05-12 14:14 1次下载

    随机森林的概念、工作原理及用例

    随机森林是一种监督式算法,使用由众多决策树组成的一种集成学习方法,输出是对问题最佳答案的共识。随机森林可用于分类或回归。
    的头像 发表于 08-05 10:00 5923次阅读

    利用随机森林进行特征重要性评估

    随机森林是以决策树为基学习器的集成学习算法随机森林非常简单,易于实现,计算开销也很小,更令人惊
    的头像 发表于 10-10 17:14 1365次阅读

    基于Python实现随机森林算法

    机器学习算法是数据挖掘、数据能力分析和数学建模必不可少的一部分,而随机森林算法和决策树算法是其中较为常用的两种
    的头像 发表于 09-21 11:17 654次阅读
    基于Python<b class='flag-5'>实现</b><b class='flag-5'>随机</b><b class='flag-5'>森林</b><b class='flag-5'>算法</b>