519. Feedback Prize - English Language Learning | feedback-prize-english-language-learning
感谢 Kaggle 和比赛主办方。Feedback 系列比赛非常有趣,很高兴听到不久将会有更多的比赛推出。
我在本次比赛的解决方案是 3 个 DeBERTa 模型的集成——一个 deberta-v3-base 和两个 deberta-v3-large 模型。我依赖不同的训练方法来增加多样性,并基于加权平均对它们进行了集成。在验证方面,我使用了 MultilabelStratifiedKFold,我的 CV(交叉验证)和 LB(排行榜)分数相当相关。此外,训练数据中的文章基于 42 个主题,有些主题有很多文章(100 - 300 篇),而其他主题只有很少的文章(< 50 篇)。在样本较少的主题上表现良好的模型在公共 LB 和私人 LB 上也表现良好。
AWP: https://www.kaggle.com/code/wht1996/feedback-nn-train/notebook
感谢所有在讨论区分享训练技巧的人,特别是 @wuwenmin。我加入得有点晚,阅读所有的讨论真的很有帮助。