大概意思就是从总样本中随机选取一些样本来作出决策树,重复多次,得到多个决策树组成森林,预测的时候按照少数服从多数的原则,给出最后的预测。
随机森林是决策树的集成算法。随机森林包含多个决策树来降低过拟合的风险。随机森林同样具有易解释性、可处理类别特征、易扩展到多分类问题、不需特征缩放等性质。
随机森林分别训练一系列的决策树,所以训练过程是并行的。因算法中加入随机过程,所以每个决策树又有少量区别。通过合并每个树的预测结果来减少预测的方差,提高在测试集上的性能表现。
随机性体现:
1.
每次迭代时,对原始数据进行二次抽样来获得不同的训练数据。
2.对于每个树节点,考虑不同的随机特征子集来进行分裂。
除此之外,决策时的训练过程和单独决策树训练过程相同。
对新实例进行预测时,随机森林需要整合其各个决策树的预测结果。回归和分类问题的整合的方式略有不同。分类问题采取投票制,每个决策树投票给一个类别,获得最多投票的类别为最终结果。回归问题每个树得到的预测结果为实数,最终的预测结果为各个树预测结果的平均值。
支持二分类、多分类以及回归的随机森林算法,适用于连续特征以及类别特征。