村长 发表于 2020-12-5 22:23:23

【LSP】GBDT梯度提升


http://cdn.u1.huluxia.com/g4/M03/6D/74/rBAAdl94C_SAHEJpAACt4WdlvYs335.jpg
先缕一缕几个关系:

GBDT是gradient-boost decision tree
GBDT的核心就是gradient boost,我们搞清楚什么是gradient boost就可以了
GBDT是boost中的一种方法,boost还有XGBoost,adaboost。
基本概念
【Boost】就是让多个弱分类器,通过不同的集成方式,来让多个弱分类器变成一个强分类器。

【gradient-boost】 梯度提升。简单的说,先训练一个弱分类器,然后弱分类器和目标值之间的残差,作为下一个弱分类器训练的目标值。这里有一个非常简单的例子http://cdn.u1.huluxia.com/g4/M01/6D/73/rBAAdl94C3yABoLvAAH-UJOS0X4139.jpg

第一个模型预测年龄,虽然真实值是30岁,第一个模型只给出了20岁的估计值;
第二棵树要预测的就是这个10岁的残差,但是第二棵树只给出了6岁的估计值;
第三棵树预测的是第二棵树的4岁的残差,但是………………(禁止套娃)
梯度 or 残差 ?
对于GBDT,网上的很多文章都没有讲清楚,学习梯度还是学习残差?从上面的那个例子来看,是学习残差的。

其实,从来GBDT都是学习梯度的,学习残差只是学习梯度的一个特例!

如果我们是在做一个回归任务(就像是上面例子中预测年龄),采用平方损失:loss=12∑ni(yi?yi^)2loss=12∑in(yi?yi^)2
其中yiyi是真实数值,yi^yi^是模型预测的值。

然后想求取这个关于yi^yi^的梯度,那就是:
?loss?yi^=(?1)(yi?yi^)?loss?yi^=(?1)(yi?yi^)

所以残差在平方损失的情况下,就是等于负梯度,所以两者一回事。

残差过于敏感
对于数据不干净,没有清晰掉异常值的数据样本。使用平方损失对异常值过于敏感了:http://cdn.u1.huluxia.com/g4/M01/6D/73/rBAAdl94C36AT-XtAAA91JpNeOE887.jpg
所以,这里在回归问题中,也可以考虑使用下面的两个损失函数:

Absolute loss:
loss=|y?y^|loss=|y?y^|

Huber loss:
这个是设置一个阈值,当|y?y^||y?y^|小于这个阈值的时候,采用平方损失,当|y?y^||y?y^|大于这个阈值的时候,采用类似于绝对损失的线性损失:

这里看一下huber loss的函数图像:http://cdn.u1.huluxia.com/g4/M01/6D/73/rBAAdl94C36ATX7yAAASb5We1-k120.jpg

就是一个平方损失,一个线性损失。

然后看一下平方损失,绝对损失,huber损失对于异常值的容忍程度:http://cdn.u1.huluxia.com/g4/M01/6D/73/rBAAdl94C3-AT5VlAAC1jfa4lC4138.jpg


CART回归树分裂思路(可不看)
其实这个问题看起来问的不明所以,其实是问你决策树如何选择特征的。从上面的例子可以看出来,GDBT应该是处理回归问题的(处理连续数据的)。当然,GDBT也有办法处理分类问题,只是这里就不说了,这里主要说GDBT怎么处理回归问题的,回归问题能处理,那么总有回归离散化的办法的

这个问题是在问:CART TREE如何选择特征的CART TREE就是回归决策树,就是之前提到的弱分类器。

一个决策树,希望读者已经有一个大概的理解了。简单说就是:样本可以根据的特征A是否超过某一个阈值划分成两部分,然后划分之后的每一个部分又可以根据某一个特征是否超过某一个阈值再分成两部分……

这样我们就要做出选择了:每一个部分是根据哪一个特征去划分?根据这个特征的哪一个数值作为阈值划分?

如果我们算力无穷,那么自然可以遍历每一个特征,然后穷举每一种可能的分割点,然后对比找到最优分割点。

那么如何判断分割的点的好坏呢?得给出一个cost函数,或者叫做loss函数这样的东西吧。

loss=∑第一部分(yi?mean(y第一部分))2+∑第二部分(yi?mean(y第二部分))2loss=∑第一部分(yi?mean(y第一部分))2+∑第二部分(yi?mean(y第二部分))2

看一下这个公式,我把公式写的太丑了。其实这个公式非常的好理解:现在根据某一个特征值,根据某一个阈值把样本分成了两个部分:第一部分和第二部分。然后计算每一个部分的样本的label的均值,也就是公式中的:mean(y第一部分)mean(y第一部分),mean(y第二部分)mean(y第二部分),然后计算第一部分中所有样本的label与第一部分label均值之间的差的平方和,同样的过程计算第二个部分的,两个相加起来就是这个loss。选择能够让这个loss最小的分割特征和分割阈值,就是我们要找的东西。

其实我在学这一块的时候,发现这个过程像是什么?像不像聚类算法,通过上面的loss的最小化的过程,把一堆样本分成两类,让两类的类内距离最小。那个均值就像是求类中心点,计算每一个label距离类中心点的距离。(这一段看不懂也没事)

无量科技 发表于 2020-12-6 09:43:37

支持,楼下的跟上哈~

天镜盗梦 发表于 2020-12-8 16:52:21

介是神马?!!

liqiang24 发表于 2020-12-10 13:28:00

确实不错,顶先

千百渡 发表于 2020-12-10 16:09:30

嘘,低调。

yichong 发表于 2020-12-11 20:06:42

1v1飘过

千面萌萌 发表于 2020-12-12 11:50:18

OMG!介是啥东东!!!
页: [1]
查看完整版本: 【LSP】GBDT梯度提升

村长黑科技是专业提供项目资源的服务的村长黑科技平台,如合购网赚项目、引流推广软件、软件程序开发等项目就选村长黑科
技平台参与或发布项目定制各种软件就来村长黑科技平台

本站中所有被研究的素材与信息全部来源于互联网,版权争议与本站无关。本站所发布的任何软件的破解分析文章、破解分析视频、补丁、注册机和注册信息,

仅限用于学习和研究软件安全的目的。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。学习破解分析技术是为了更好的完善软件可能存在的不安全因素,提升软件安全意识。所以您如果喜欢某程序,

请购买注册正版软件,获得正版优质服务!不允许将上述内容私自传播、销售或者其他任何非法用途!否则,产生任何法律责任,一切后果请用户自负,与本网站无关!如有侵权或非法用途请举报!请发送到邮箱:cxphj8@foxmail.com

《意见反馈》或《截图指定页面备注》发送到邮件,收到后24小时内删除,禁止用户学习使用关掉用户【学习使用权】!