第2名 方案
第2名 方案
1. 背景
- 千叶工业大学信息与计算机科学学部的本科生。
- 这是我第一次参加 Kaggle 的 MLMM 比赛。
- 我在这次比赛上花费了两周时间。
2. 概要
我的第2名方案代码在这里。
我使用 LGBM 作为模型。该模型是使用 AutoLGBM 实现的。训练耗时两小时。
3. 特征
我只使用了本次比赛分发的数据集中的一部分。使用了以下特征:
- MNCAATourneyDetailedResults.csv
- MNCAATourneySeeds.csv
- MMasseyOrdinals_thruDay128.csv
4. 模型
- 使用 AutoLGBM 库训练 LGBM。
- 我使用了 10 折交叉验证进行训练。
- 该 Notebook 是 Fork 自 @PIXYZ0130 的 notebook,大部分内容只是复制过来的。分组和其他细节略有不同。