其他分享
首页 > 其他分享> > 提升AdaBoost与提升树(boosting tree)

提升AdaBoost与提升树(boosting tree)

作者:互联网

1.简介
boosting本质即通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能。
提升方法即从弱学习算法出发,得到一系列弱分类器,构成一个强分类器。
大多数提升方法通过改变训练数据的概率分布,针对不同的训练数据分布调用弱学习算法学习一系列弱分析器

2.核心问题
a.如何改变训练数据的权值或概率分布
b.如何将弱分类器组合成强分类器
a.提高前一轮弱分类器错误分类样本的权值,降低正确分类样本的权值。
b.采用加权多数表决的方法,加大分类误差率小的弱分类器的权值,减少误差率大的弱分类器的权值

3.Adaboost算法

4.AdaBoost算法的训练误差分析
1 N ∑ 1 N I ( G ( x i ) ≠ y i ) ≤ 1 N ∑ e x p ( − y i f ( x i ) ) = ∏ m Z m \frac{1}{N}\sum^N_1I(G(x_i)≠y_i)\le\frac{1}{N}\sum{exp(-y_if(x_i))}=\prod_m{Z_m} N1​∑1N​I(G(xi​)​=yi​)≤N1​∑exp(−yi​f(xi​))=∏m​Zm​
当为二分类问题时
∏ m Z m = ∏ m ( 1 − 4 ( 1 2 − e m ) 2 ) 1 2 ≤ e x p ( − 2 ∑ ( 1 2 − e m ) 2 ) \prod_m{Z_m}=\prod_m{(1-4(\frac{1}{2}-e_m)^2)^\frac{1}{2}}\le{exp(-2\sum{(\frac{1}{2}-e_m})^2)} ∏m​Zm​=∏m​(1−4(21​−em​)2)21​≤exp(−2∑(21​−em​)2)
如果存在γ使得所有 1 2 − e m > = γ \frac{1}{2}-e_m >=\gamma 21​−em​>=γ,则上界以指数速率下降,即训练误差以指数速率下降

5.新的解释
将AdaBoost模型认为是加法模型,损失函数为指数函数,学习算法为前向分步算法的二分类学习方法
5.1前向分步算法

6.提升树
以决策树为基函数的提升方法称为提升树
回归问题的提升树即学习新的回归树以拟合残差,直到符合误差要求
梯度提升算法即利用损失函数在当前模型的负梯度值求得新树

标签:yi,frac,sum,boosting,tree,分类器,AdaBoost,exp,权值
来源: https://blog.csdn.net/qq_44807945/article/details/113924116