601. March Machine Learning Mania 2024 | march-machine-learning-mania-2024
感谢Kaggle和所有参与者的组织,举办了如此精彩的竞赛。March Madness是我在2019年第一次参加的竞赛,所以这次能够获奖让我非常高兴。然而,今年我花了超过一半的时间来理解一个新的指标,没有足够的时间来编写代码。因此,请理解我的解决方案是公开Notebook的组合。
更新(2024年4月18日):我已发布了除提交Notebook之外的代码。并且,我添加了延迟提交的结果。
提交Notebook在这里。该Notebook从这个数据集读取数据。数据集中的每个数据均由以下代码创建:
对以下两个模型进行加权集成:
逻辑回归模型过去使用了538的评级,但今年我无法使用它们。相反,我在R中实现了Elo评级作为替代。这两个模型在过去的竞赛中都产生了良好的结果,并且捕捉到不同的趋势,所以我认为集成是有效的。
我直接使用了lennarthaupts的Notebook。(n_brackets = 100000)
对于第一次提交,我设置康涅狄格大学(UConn)在男子锦标赛中100%获胜,南卡罗来纳大学在女子锦标赛中100%获胜。同样,对于第二次提交,我设置休斯顿大学在男子锦标赛中100%获胜,南卡罗来纳大学在女子锦标赛中100%获胜。
正如jacklichtenstein的第二名解决方案中所提到的,我认为这种策略在今年的赛制中非常有效。此外,考虑到去年的结果很混乱,我认为许多参与者今年可能会犹豫是否使用覆盖。这是一种元游戏策略;使用覆盖的参与者越多,使用覆盖的价值就越低。
延迟提交的结果如下:
| 模型 | 覆盖 | 分数 | 备注 |
|---|---|---|---|
| LR:XGB = 2:8 | UConn&SC | 0.05604 | 第8名模型 |
| LR:XGB = 2:8 | 无 | 0.05985 | 相当于第69名 |
| LR:XGB = 2:8 | UConn | 0.05683 | 相当于第13名 |
| LR:XGB = 2:8 | SC | 0.05906 | 相当于第45名 |
| LR:XGB = 10:0 | 无 | 0.05761 | 相当于第23名 |
| LR:XGB = 0:10 | 无 | 0.06106 | 相当于第139名 |
| LR:XGB = 10:0 | UConn&SC | 0.05482 | 相当于第3名 |
| LR:XGB = 10:0 | UConn | 0.05545 | 相当于第4名 |
| LR:XGB = 10:0 | SC | 0.05698 | 相当于第14名 |