类问题,也可用于回归问题,但最好使用大型、高质量的数据集进行学习。大型数据集包括从一百个案例(如果变异性很小)到数百万个数据条目(对于高度复杂且多变的数据集)的任何内容。 正确的参数– 调整 XGBoost 模型的参数可能很棘手,但重要的是要让它们恰到好处,以使算法发挥最佳性能。好消息是,调整参数非常简单;只需更改几个值并再次运行模型即可。
这在很大程度上要归功于可用的出色库。 时间– XGBoost 是一种计白俄罗斯资源算密集型算法,需要花费一些时间来训练,尤其是在大型数据集上。但它仍然是速度更快的替代方案之一。 老实说,这些是我们列出的每个其他算法都需要的东西,因此假设这些也是要求,除非我们明确说明。 轻量级GBM 与 XGBoost 一样,LightGBM 是一个使用基于树的学习算法的梯度提升框架。
事实上,你可以把它看作 XGBoost 的主要竞争对手。它设计得高效且易于使用,并且支持各种类型的数据,包括分类、文本和数字数据。 LightGBM的起源可以追溯到微软研究院,该算法由郭林柯和其他研究人员开发。该算法于 2016 年根据 MIT 许可开源。从那时起,LightGBM 已成为最受欢迎的梯度提升框架之一,用户和贡献者社区不断壮大。
良好的数据集– XGBoost 既可用于分
-
- Posts: 113
- Joined: Tue Jan 07, 2025 4:25 am