栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

XGBoost 相比传统 GBDT 有何不同?XGBoost 的特点是什么?XGBoost 为什么快?XGBoost 如何支持并行?

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

XGBoost 相比传统 GBDT 有何不同?XGBoost 的特点是什么?XGBoost 为什么快?XGBoost 如何支持并行?

(0)实际上GBDT泛指所有梯度提升树算法包括XGBoost,为了区分,通常GBDT特指只用了一阶导数信息的算法。

(1)传统GBDT仅以CART回归树作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。

(2)传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。xgboost工具支持自定义代价函数,要求函数可一阶和二阶求导。

(3)xgboost在代价函数里加入了正则项,用于控制模型的复杂度。正则项里包含了树的叶子节点个数、每个叶子节点上输出的score的L2模的平方和。从 Bias-variance tradeoff 角度来讲,正则项降低了模型的方差,使学习出来的模型更加简单,防止过拟合。

(4)Shrinkage(缩减),即学习速率(xgboost中的eta)。xgboost在进行完一次迭代后,会将叶子节点的权重乘上该系数,主要是为了削弱每棵树的影响,让后面有更大的学习空间。

(5)列抽样

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/266803.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号