返回列表

24th place solution | Logistic model on top of Ensemble (XGB + Catboost + LGBM)

455. Tabular Playground Series - Sep 2021 | tabular-playground-series-sep-2021

开始: 2021-09-01 结束: 2021-09-30 保险科技 数据算法赛
第24名方案 | 基于集成模型的逻辑回归

第24名方案 | 基于集成模型(XGB + Catboost + LGBM)的逻辑回归

作者:Old Monk | 排名:第24名 | 发布时间:2021-10-02

各位 Kagglers,大家好!

看到我的提交排名一下子跃升了近80个名次并最终获得第24名,我感到既惊喜又意外(之前我的提交一直没能进入公开排行榜的前100名,我差点都要放弃了)。

我要特别感谢 @mlanhenke,他公开的 Notebook 对我学习 Optuna 和元学习器帮助很大。

方法概述

我的工作主要涉及基于 XGBoost、CatBoost 和 LightGBM 的堆叠元学习器(Stacked Meta-learner)或集成模型。

整体思路与 @mlanhenke 在其公开 Notebook 中的做法类似。

具体细节

  • 我训练了不同的基模型,并保存了 OOF(Out-of-Fold)预测结果,最后用这些结果构建元数据集。
  • 我将分层 K 折交叉验证增加到了 10 折,以实现更好的验证效果并建立更稳健的模型。
  • 作为最终(元)学习器,我简单地使用了逻辑回归模型来预测概率。

致谢与问候,
Old Monk

同比赛其他方案