返回列表

8th Place Solution

601. March Machine Learning Mania 2024 | march-machine-learning-mania-2024

开始: 2024-02-27 结束: 2024-04-09 赛事预测 数据算法赛
```html 第8名解决方案

第8名解决方案

作者:flaty  |  排名:第8名  |  发布日期:2024-04-12

感谢Kaggle和所有参与者的组织,举办了如此精彩的竞赛。March Madness是我在2019年第一次参加的竞赛,所以这次能够获奖让我非常高兴。然而,今年我花了超过一半的时间来理解一个新的指标,没有足够的时间来编写代码。因此,请理解我的解决方案是公开Notebook的组合。

更新(2024年4月18日):我已发布了除提交Notebook之外的代码。并且,我添加了延迟提交的结果。

代码

提交Notebook在这里。该Notebook从这个数据集读取数据。数据集中的每个数据均由以下代码创建:

模型

对以下两个模型进行加权集成:

逻辑回归模型过去使用了538的评级,但今年我无法使用它们。相反,我在R中实现了Elo评级作为替代。这两个模型在过去的竞赛中都产生了良好的结果,并且捕捉到不同的趋势,所以我认为集成是有效的。

模拟

我直接使用了lennarthaupts的Notebook。(n_brackets = 100000)

手动覆盖

对于第一次提交,我设置康涅狄格大学(UConn)在男子锦标赛中100%获胜,南卡罗来纳大学在女子锦标赛中100%获胜。同样,对于第二次提交,我设置休斯顿大学在男子锦标赛中100%获胜,南卡罗来纳大学在女子锦标赛中100%获胜。

正如jacklichtenstein的第二名解决方案中所提到的,我认为这种策略在今年的赛制中非常有效。此外,考虑到去年的结果很混乱,我认为许多参与者今年可能会犹豫是否使用覆盖。这是一种元游戏策略;使用覆盖的参与者越多,使用覆盖的价值就越低。

延迟提交

延迟提交的结果如下:

模型 覆盖 分数 备注
LR:XGB = 2:8 UConn&SC 0.05604 第8名模型
LR:XGB = 2:8 0.05985 相当于第69名
LR:XGB = 2:8 UConn 0.05683 相当于第13名
LR:XGB = 2:8 SC 0.05906 相当于第45名
LR:XGB = 10:0 0.05761 相当于第23名
LR:XGB = 0:10 0.06106 相当于第139名
LR:XGB = 10:0 UConn&SC 0.05482 相当于第3名
LR:XGB = 10:0 UConn 0.05545 相当于第4名
LR:XGB = 10:0 SC 0.05698 相当于第14名
  • 至少从今年的结果来看,逻辑回归模型表现更好。(由于时间不足,我凭感觉决定了集成比例,但本应该彻底验证它。)
  • 在我的模型中,UConn的覆盖效果产生了非常显著的影响。
```
同比赛其他方案