519. Feedback Prize - English Language Learning | feedback-prize-english-language-learning
首先,我要感谢 Kaggle 和主办方举办了如此有趣的比赛。同时,我要祝贺所有的获奖者。虽然我没能获得单人金牌,但我从这次比赛中学到了很多。
我的方案是结合了伪标签的21个模型的加权平均集成,并使用了 Nelder-Mead 优化方法。这与其他方案大同小异。我的独创性在于将 \n 替换为 [Chapter]。这使 CV 提高了 0.0015。在此讨论中,我将详细展示我的 CV 和 Private LB(私有排行榜)之间的关系。


※ pseudo1 和 2 将在下一章解释
※ 顺序按 Private LB 得分从高到低排列
| 实验编号 | 模型 | 伪标签1 | 伪标签2 | 伪标签数据集 | K折 | CV | Private LB | Public LB |
|---|---|---|---|---|---|---|---|---|
| 214 | deberta v3 large | 〇 | - | 仅 FB1 | 4 | 0.4467 | 0.4378 | 0.4404 |
| 123 | deberta v3 large | 〇 | - | FB1 + Commonlit | 4 | 0.4467 | 0.4379 | 0.4402 |
| 200 | deberta v3 large | - | 〇 | 仅 FB1 | 4 | 0.4471 | 0.4381 | 0.4396 |
| 250 | deberta v3 large | - | - | - | 15 | 0.4470 | 0.4382 | 0.4410 |
| 161 | deberta v3 large | - | 〇 | FB1 + Commonlit | 4 | 0.4472 | 0.4383 | 0.4401 |
| 102 | deberta base | 〇 | - | FB1 + Commonlit | 4 | 0.4483 | 0.4387 | 0.4386 |
| 201 | deberta base | - | 〇 | 仅 FB1 | 4 | 0.4503 | 0.4390 | 0.4399 |
| 163 | deberta base | - | 〇 | FB1 + Commonlit | 4 | 0.4505 | 0.4390 |