487. H&M Personalized Fashion Recommendations | h-and-m-personalized-fashion-recommendations
感谢 Kaggle 和 H&M 主办这场激动人心的比赛,感谢我的队友 @niwatori 以及所有与我们竞争的参赛者。
以下是我们方案的简要总结。
正如论坛中所讨论的,我们使用了多种召回方法来生成候选。
我们保留了在候选生成阶段添加的大部分列,以便将它们作为特征利用。
除了上述阶段生成的列外,我们还添加了如下特征:
我们使用了 CatBoost Ranker (YetiRank)。我们也尝试过使用 LGBMRanker,但在我们的案例中 CatBoost 给出了更好的结果。我们发现与调参后的模型相比,默认参数给出了不错的结果。
我们使用了 6、8 和 12 周的数据进行训练,并留出最后一周作为验证。在一台 224 核的机器上训练单个模型最多需要 20 小时。
我们最好的单模型成绩为 CV: 0.03589, Public: 0.03381, Private: 0.03391。
在整个比赛过程中,我们的验证集/公共榜基本呈正相关,但我们观察到更改训练周数会带来负相关。(CV 分数变差,Public/Private 分数变好)
我们采用了 此处介绍 的融合方法。
我们融合了 4 个使用不同训练周数和不同参数训练的模型。
更新 这是我们的源代码:https://github.com/ryowk/kaggle-h-and-m-personalized-fashion-recommendations