第14名解决方案:带负权重的hillclimbers
第14名解决方案:带负权重的hillclimbers
作者:Matt OP(Kaggle Grandmaster)
发布时间:2023年5月30日
大家好!虽然这次比赛我投入的时间不多,但仍想分享我的解决方案和思考。参与这类竞赛总是充满乐趣,衷心感谢所有贡献者和参与者。
特别致谢以下创建优秀模型的选手(请为他们点赞):
本次最终集成使用了我的开源项目 hillclimbers。关于该工具的详细说明,可参考我在上一届Playground Series比赛中获得第四名的解决方案详解。
要点说明
- 我的模型(第一个hillclimbers模块)采用了@arunklenin的预处理与特征工程方案,并对所有模型的超参数进行了手动调优。
- 我注意到许多公开笔记本严重依赖以下三种模型:XGBoost、CatBoost和LGBM。这在Playground系列赛中很常见。构建本模型的主要目的是增强预测多样性,即使仍在使用多个梯度提升模型。
- 令人意外的是,我自建的模型在Private LB上获得了0.072698的分数,优于最终提交的0.072741,尽管其CV分数较低。遗憾的是我未将其选为正式提交方案。
hillclimbing模型权重
感谢阅读!欢迎任何反馈意见。