大家好,欢迎来到IT知识分享网。
谈及gbdt算法,不得不提GB与dt算法,即使用梯度提升回归树的方式进行回归提升。
以下贴上经典算法图:
1、第一步,算法中的参数,建立M棵回归树,每颗树的深度都为J,其中有一棵树为第一次建立的回归树,其余M-1棵树为残差(在梯度提升回归树里面为使损失函数最小的梯度向量)建立的树,F(X)为估值向量,即每一例为x样本在K类上的估值。
2、第二步,pk(x)为f(x)的逻辑回归变化,将每类上的估值变为在每类上的真实概率值。
3、第三步,开始,一类一类的迭代出损失函数衰减最小的概率梯度方向向量,根据yik概率梯度残差训练出一棵J节点的树。
4、计算出建起来的每棵树叶节点的梯度向量增益,增益即为x在当前分类上的概率估值。
6、迭代M次后,使得FM(X)概率估值矩阵接近真实概率矩阵模型。
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/10910.html