其他分享
首页 > 其他分享> > 随机森林是如何停止训练的?

随机森林是如何停止训练的?

作者:互联网

随机森林是一种机器学习算法,可以用于分类与回归,其他关于随机森林的知识可以百度。
现在实现机器学习算法有很多方便的渠道,比如python的sklearn包还有c++的shark,具体实现方式也可以百度。
随机森林是如何停止训练的。我一直以为随机森林和神经网络的训练类似,给定迭代次数,然后利用损失函数,梯度下降,优化权重等等最终最小化损失函数,然后完成训练。但是我找遍sklearn 随机森林的全部可以设置的参数,都没有迭代次数这个可以设置的参数。后来我就想可能是根据损失值或者精确率来的,比如精确率达到95%自动停止训练(pie就是类似这样的)【这个错误思想让我自己还挺满足的,现在发现是错的】。今天我突然想起来去年就看过的一句话,随机森林的训练和梯度下降没有半毛钱关系,它就是根据设置的n_estimators参数【树的个数】,然后依据gini信息将树建完为止,正是因为不需要梯度下降所以省去了很多数据预处理的过程,使用起来还挺方便。最终的结果由每棵决策树综合给出:如果是分类问题,那么对于每个测试集,树都会预测出一个类别进行投票,最终统计票数多的那个类别为最终类别。看看,这算法俨然是一个遵循:“少数服从多数”的原则的小型民主社会;如果是回归问题,那就更简单了,各个树得到的结果相加求得一个平均值为最终回归结果。【我想我不会再因为这个问题而烦恼了】,这也反映我基础很差,必须补补基础。

标签:训练,梯度,最终,算法,随机,森林
来源: https://blog.csdn.net/x19979/article/details/121691747