478. Feedback Prize - Evaluating Student Writing | feedback-prize-2021
我的方案是一个简单的 BERT 模型集成。
我曾尝试使用不同模型的召回率通过 LGB 进行 L2 重排,但没能成功,有点遗憾:(。所以这里没有堆叠,只是通过优化后处理(使用 Optuna 搜索)对一级 BERT 模型进行了简单的集成。
| 序号 | 模型路径 | 模型名称 | 权重 |
|---|---|---|---|
| 0 | ../input/feedback-model0 | base.deberta-v3.start | 1 |
| 1 | ../input/feedback-model1 | base.deberta-v3.end | 1 |
| 2 | ../input/feedback-model2 | base.deberta-v3.se | 1 |
| 3 | ../input/feedback-model3 | large.deberta-v2-xlarge.start | 1 |
| 4 | ../input/feedback-model4 | large.deberta-v2-xlarge.se2 | 1 |
| 5 | ../input/feedback-model5 | base.deberta.start | 1 |
| 6 | ../input/feedback-model6 | base.deberta.mid | 1 |
| 7 | ../input/feedback-model7 | base.electra.start | 1 |
| 8 | ../input/feedback-model8 | large.deberta-v3.start.mui-end-mid | 2 |
| 9 | ../input/feedback-model9 | large.electra.start.mui-end-mid | 2 |
如何分割很重要,我发现下面的规则很有帮助!但它还是比不过 LGB :)