树模型第二节,从集成学习到随机森林、GBDT等
本篇为树模型第二篇,主要介绍集成学习相关内容以及对应算法,包括随机森林,Adaboost和GBDT。
1 集成学习
常见的集成学习框架有三种:Bagging,Boosting 和 Stacking。
1.1 Bagging
Bagging(Boostrap aggregating),每个基学习器都会对训练集进行有放回的抽样得到子训练集。
每个基学习器基于不同的子训练集进行训练,并松鹤所有基学习器的结果汇总为最后结果。常见的纵膈方法是投票法,投票最多的结果为最终的结果。
1.2 Boosting
Boosting 训练过程为阶梯状,基模型的训练是有顺序的,每个基模型都会在前一个基模型学习的基础上进行学习,最终综合所有基模型的预测值产生最终的预测结果,用的比较多的综合方式为加权法。
1.3 Stacking
Stacking 是先用全部数据训练好基模型,然后每个基模型都对每个训练样本进行的预测,其预测值将作为训练样本的特征值,最终会得到新的训练样本,然后基于新的训练样本进行训练得到模型,然后得到最终预测结果。
1.4 偏差与方差
这里对于偏差与方差不做过多的介绍,只简单说一下重点。
- 偏差(Bias):模型预测结果与真实结果的差距。要想预测的好,就需要复杂化模型,容易过拟合。
- 方差(Variance):模型预测值的离散程度。要想方差小,需要减少复杂度,容易欠拟合。
以打靶为例,低偏差说明说明打得准,低方差说明子弹散开程度小。两者通常处于一个平衡状态,很难同时做到同时低。
对于集成学习中,Bagging 和 Stacking 中的基模型为强模型(偏差低,方差高),而Boosting 中的基模型为弱模型(偏差高,方差低)。
对于集成学习模型来说,模型的总体期望:
E(F)=E(i∑mrifi)=i∑mriE(fi)
模型的总体方差:
Var(F)=Var(i∑mrifi)=i∑mVar(rifi)+i=j∑mCov(rifi,rjfj)=i∑mri2Var(fi)+i=j∑mρrirjVar(fi)Var(fj)=mr2σ2+m(m−1)ρr2σ2=mr2σ2(1−ρ)+m2r2σ2ρ
模型总体的准确度可由方差和偏差共同决定:
Error = bias 2+ var +ξ
1.4.1 Bagging
对于bagging来说,每个基模型的权重等于1/m且期望近似相等,因此可得:
E(F)Var(F)=i∑mriE(fi)=mm1μ=μ=mr2σ2(1−ρ)+m2r2σ2ρ=mm21σ2(1−ρ)+m2m21σ2ρ=mσ2(1−ρ)+σ2ρ
通过上面可得
- 整体模型的期望等于基模型的期望,意味着整体模型的偏差与基模型的偏差近似
- 整体模型的方差小于等于基模型的方差,随着基模型数量的增多,整体方差减少,从而防止过拟合的能力增强,从而防止过拟合的能力增强,模型准确度提高
因此,bagging的基模型为强模型是为了提高模型的偏差。如果是弱模型,则模型整体的偏差增高。
1.4.2 Boosting
Boosting共用一套训练集,所以基模型之间具有强相关性,方差和期望的公式简化为
E(F)Var(F)=i∑mriE(fi)=mr2σ2(1−ρ)+m2r2σ2ρ=mm21σ2(1−1)+m2m21σ21=σ2
- 整体模型的方差等于基模型的方差,基模型为弱模型,方差叫小,从而防止过拟合。
- **模型整体的期望由基模型的期望累加而成,**所以随基模型数量的增加,模型整体的准确度提高。
2 随机森林
用随机的方式建立一个森林,森林由许多决策树组成,每一颗决策树之间没有关联。建立完森林后,每当新样本进入,每颗决策树都会分别进行判断,然后基于投票法给出分类结果。
2.1 基本介绍
随机森林是Bagging的拓展,在以决策树为基学习器构建Bagging的基础上,在训练过程引入了随机特征选择,整个流程包括4部分:
1.随机样本选择(放回抽样)
2.随机特征选择
3.构建决策树
4.随机森林投票
随机特征选择是指每棵树的特征为随机的特征子集,然后再以最优的策略从特征子集选择。这种随机性会导致偏差稍有增加,但是由于随机森林的平均特性,会导致方差减少。方差的减少弥补了偏差的增大。
同时,随机采样的采样方法保证了数据的随机性,每棵树都是最大可能生长,不剪枝也不会出现过拟合。
随机森林过程中包含了双随机:随机的数据采样和随机的特征选择
2.2 优点
3 Adaboost
AdaBoost(Adaptive Boosting,自适应增强)。
自适应:前一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来训练下一个基本分类器。同时,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数。
3.1 基本流程
- 初始化训练样本的权重分布,每个样本权重相同
- 训练弱分类器,基于自适应的原理更新样本的权重。用更新过权重的样本训练下一个分类器
- 将所有弱分类器组合成强分类器,同时根据每个分类器的分类误差率,对各个弱分类器分配不同的权重。
3.2 损失函数
Adaboost 模型是加法模型,学习算法为前向分步学习算法,损失函数为指数函数的分类问题。
加法模型:最终的强分类器是由若干个弱分类器加权平均得到的。
前向分布学习算法:算法是通过一轮轮的弱学习器学习,利用前一个弱学习器的结果来更新后一个弱学习器的训练集权重。
第K轮的强学习器为:
Fk(x)=i=1∑kαifi(x)=Fk−1(x)+αkfk(x)
定义损失函数为n个样本的指数损失函数:
L(y,F)=i=1∑nexp(−yiFk(xi))
根据前向分布学习算法可得:
L(y,F)=i=1∑mexp[(−yi)(Fk−1(xi)+αkfk(xi))]=i=1∑mexp[−yiFk−1(xi)−yiαkfk(xi)]=i=1∑mexp[−yiFk−1(xi)]exp[−yiαkfk(xi)]
其中,上一步中的Fk−1已知,所以令wk,i=exp(−yiFk−1(xi))。将上一步的损失作为这一步的权重。每一轮迭代时的损失函数变为:
L(y,F(x))=i=1∑mwk,iexp[−yiαkfk(xi)]
对fk(x)求解,得:
fk(x)=argmini=1∑mwk,iI(yi=fk(xi))
带入损失函数,并对α求导,得:
αk=21logek1−ek
其中,ek为前面的分类误差率:
ek=∑i=1mwki′∑i=1mwki′I(yi=fk(xi))=i=1∑mwkiI(yi=fk(xi))
根据之前公式,样本权重的更新公式为:
wk+1,i=wkiexp[−yiαkfk(xi)]
3.3 正则化
对于目标函数,为了防止过拟合,加入正则化:
Fk(x)=Fk−1(x)+μαkfk(x)
通过μ来控制迭代的次数,通常来说,较小的/mu意味着需要更多的弱学习器的迭代次数。
3.4 优缺点
优点
- 分类精度高
- 可以用各种分类模型构建弱学习器,灵活
- 不易过拟合
缺点
4 GBDT
GBDT(Gradient Boosting Decision Tree)是一种迭代的决策树算法,该算法由多棵决策树组成,属于 Boosting 策略。
4.1 基本过程
4.1 概述
GBDT(Gradient Boosting Decision Tree)是一种迭代的决策树算法,该算法由多棵决策树组成,属于 Boosting 策略。其中弱学习器限制了只能使用CART回归树,迭代思路与Adaboost也有所不同。GBDT每一轮迭代的目标是是最小化残差。比如有个人30岁,第一个学习器的输出是20岁,损失为10岁,后面的模型去拟合这个10岁。假设输出为6岁,那么此刻残差为4岁,模型继续拟合4岁。每一轮迭代,都使得损失变得更小。
GBDT的核心是累加所有树的结果作为最终结果,模型的最终预测值可以表示为:
Fk(x)=i=1∑kfi(x)
fi(x)可以表示为基模型与其权重的乘积,模型的训练目标是使预测值Fk(x)逼近真实值y,因此每个基模型的预测值都要各自逼近要预测部分的真实值。对应的训练思路为:每次只训练一个基模型,整体的模型迭代公式为:
Fk(x)=Fk−1(x)+fk(x)
在每一轮迭代中,只集中解决一个基模型的训练。
其中,GBDT中的树都是回归树,不是分类树。
因为对分类树来说,结果的加减没有意义。回归树结果的加减才有意义。
回归树在分枝时会穷举每一个特征的每一个阈值,以最小均方误差作为衡量标准,找到最好的分割点。
4.2 负梯度拟合
针对损失函数的拟合方法问题,GBDT采用了损失函数的负梯度来拟合本轮损失的近似值。
第t轮第i分样本的损失函数的负梯度表示为:
rti=−[∂f(xi)∂L(yi,f(xi)))]f(x)=ft−1(x)
由公式17,利用(xi,rti)来拟合一颗CART回归树。针对每一个叶子结点里的样本,求出使损失函数最小,也就是拟合叶子节点最好的输出值ctj:
ctj=cargminxi∈Rtj∑L(yi,ft−1(xi)+c)
其中Rtj为叶节点区域。
本轮的拟合函数为:
ht(x)=j=1∑JctjI(x∈Rtj)
通过损失函数的负梯度来拟合,我们找到了一种通用的拟合损失误差的办法,这样无轮是分类问题还是回归问题,我们通过其损失函数的负梯度的拟合,就可以用GBDT来解决我们的分类回归问题。区别仅仅在于损失函数不同导致的负梯度不同而已。
注意:只有当损失函数为均方误差时,负梯度刚好为残差
−∂Fk(x)∂(21(y−Fk(x))2)=y−Fk(x)
拟合残差只是考虑到损失函数为平方损失的特殊情况,负梯度是更加广义上的拟合项,更具普适性。
4.3 损失函数
常见的损失函数为:
-
均方误差
常用损失,但对异常点比较敏感
L(y,f(x))=(y−f(x))2
-
绝对损失
L(y,f(x))=∣y−f(x)∣
负梯度误差为:
sign(yi−f(xi))
-
Huber损失
均方误差和绝对损失的折中产物,相比均方误差能更好的处理异常点
L(y,f(x))=⎩⎪⎪⎨⎪⎪⎧21(y−f(x))2δ(∣y−f(x)∣−2δ)∣y−f(x)≤δ∣∣y−f(x)>δ∣
-
分位数损失
比较少见,对应分位数回归的损失函数,主要目的还是减少异常点对模型的影响
r(yi,f(xi))={θθ−1yi≥f(xi)yi<f(xi)
4.4 算法流程
4.4.1 回归
训练集样本T:T={(x,y1),(x2,y2),…(xm,ym)}
最大迭代次数:T
损失函数:L
-
初始化弱学习器
f0(x)=cargmini=1∑mL(yi,c)
-
对迭代轮数t=1,2,..T,
-
对于样本i=1,2,..,m 计算负梯度
rti=−[∂f(xi)∂L(yi,f(xi)))]f(x)=ft−1(x)
-
利用(xi,rti),拟合一颗CART回归树,对应的叶子节点区域为Rtj,j=1,2,...,J,为回归树t的叶子结点的个数。
-
对于叶子区域j=1,2,3...,J,计算最佳拟合值
ctj=cargminxi∈Rtj∑L(yi,ft−1(xi)+c)
-
更新强学习器
ft(x)=ft−1(x)+j=1∑JctjI(x∈Rtj)
-
最终强学习器
f(x)=fT(x)=f0(x)+t=1∑Tj=1∑JctjI(x∈Rtj)
4.4.2 分类
为了解决分类输出不是连续值的问题,主要有两个方法,一个是用指数损失函数,此时GBDT退化为Adaboost算法。另一种方法是用类似于逻辑回归的对数似然损失函数的方法。也就是说,我们用的是类别的预测概率值和真实概率值的差来拟合损失。本文仅讨论用对数似然损失函数的GBDT分类。而对于对数似然损失函数,我们又有二元分类和多元分类的区别。
4.4.2.1 二元GBDT分类
损失函数改为对数似然损失函数:
L(y,f(x))=log(1+exp(−yf(x)))
此时的负梯度误差为:
rti=−[∂f(xi)∂L(y,f(xi)))]f(x)=ft−1(x)=yi/(1+exp(yif(xi)))
叶子节点的最佳拟合值:
ctj=cargminxi∈Rtj∑log(1+exp(−yi(ft−1(xi)+c)))
因为较难优化,使用近似值替代:
ctj=xi∈Rtj∑rti/xi∈Rtj∑∣rti∣(1−∣rti∣)
4.4.2.2 多元GBDT分类
假设类别数为K,对数似然损失函数为:
L(y,f(x))=−k=1∑Kyklogpk(x)
第k类的概率pk(x)的表达式为:
pk(x)=exp(fk(x))/l=1∑Kexp(fl(x))
对应的负梯度误差:
rtil=−[∂f(xi)∂L(yi,f(xi)))]fk(x)=fl,t−1(x)=yil−pl,t−1(xi)
这里的误差就是样本𝑖i对应类别𝑙l的真实概率和𝑡−1t−1轮预测概率的差值。
叶子节点最佳拟合值:
ctjl=cjlargmini=0∑mk=1∑KL(yk,ft−1,l(x)+j=0∑JcjlI(xi∈Rtjl))
近似值替代:
ctjl=KK−1∑xi∈Rtil∣rtil∣(1−∣rtil∣)∑xi∈Rtjlrtil
4.5 正则化
GBDT正则化有三种方式
-
Shrinkage
对每一棵树设置一个权重,类似learning rate,通过权重的变化,增加弱学习器的迭代次数。
Fi(x)=Fi−1(x)+μfi(x)(0<μ≤1)
-
子采样
取值为(0,1]。注意这里的子采样和随机森林不一样,随机森林使用的是放回抽样,而这里是不放回抽样。如果取值为1,则全部样本都使用,等于没有使用子采样。如果取值小于1,则只有一部分样本会去做GBDT的决策树拟合。选择小于1的比例可以减少方差,即防止过拟合,但是会增加样本拟合的偏差,因此取值不能太低。推荐在[0.5, 0.8]之间。
-
剪枝
对CART树进行正则化剪枝
4.6 优缺点
优点:
- 可以灵活处理各种类型的数据,包括连续值和离散值。
- 在相对少的调参时间情况下,预测的准确率也可以比较高。
- 使用一些健壮的损失函数,对异常值的鲁棒性非常强。比如 Huber损失函数和Quantile损失函数。
缺点:
- 由于弱学习器之间存在依赖关系,难以并行训练数据。不过可以通过自采样的SGBT来达到部分并行。
4.7 对比Adaboost
相同:
- 都属于boosting家族,使用弱分类器
- 使用前向分布算法
不同:
- 迭代思路不同。Adaboost通过提升错分的数据点的权重来弥补模型不足;GBDT通过计算梯度来提升模型。
参考资料
决策树(中)——Random Forest、Adaboost、GBDT
[梯度提升树(GBDT)原理小结](https://www.cnblogs.com/pinard/p/6140514.html)