423. Tabular Playground Series - Feb 2021 | tabular-playground-series-feb-2021
很遗憾,我没能真正改进上个月的方案。所以感兴趣的朋友请直接参考一月份的帖子和笔记本。
总的来说,我只是更改了一些参数等,并以常规方式处理了新的分类特征。
很遗憾,上半月我没有太多时间探索 DAE(去噪自编码器)的想法,而下半月尝试实施时也没有取得太大成功。
祝贺 @ryanzhang 以较大优势获得第一名,也感谢所有在比赛期间分享好点子(例如 LGBM 模型的微调)的朋友们 👍
编辑:快速备注一下各个模型的分数。格式为 私有榜分数 / 公有榜分数。所有模型的交叉验证(CV)分数与公有排行榜都非常接近。
| 模型 | 私有榜分数 | 公有榜分数 |
|---|---|---|
| LGBM | 0.84282 | 0.84229 |
| XGB | 0.84356 | 0.84301 |
| NN1 (神经网络1) | 0.84362 | 0.84250 |
| NN2 (神经网络2) | 0.84333 | 0.84261 |
基于 CV OOF(袋外)预测,使用 Optuna 计算出的融合权重:
最终输出分数: 0.84228 / 0.84157