446. CommonLit Readability Prize | commonlitreadabilityprize
首先,感谢主办方和 Kaggle 举办了这场有趣的比赛。同时,非常感谢 torch (@rhtsingh) 分享他/她的经验,这帮助我突破了 0.485 的分数并取得了更好的成绩。
我的最终模型由 2 种类型的模型组成,总共 17 个模型。
正如主办方所说,每个分数都是一段文本与基准文本的比较。 详情点击此处
我的最终模型使用了几乎相同的微调策略。具体如下:
仅报告相同基础 Transformer 模型中的最佳得分。
| 模型 | 成对 (1/0) | CV | Public | Private |
|---|---|---|---|---|
| Roberta-large | 0 | 0.47835 | 0.466 | 0.470 |
| Roberta-large | 1 | 0.46694 | 0.460 | 0.459 |
| Roberta-base | 1 | 0.47325 | 0.475 | 0.477 |
| Deberta-large | 0 | 0.46440 | 0.460 | 0.461 |
| Deberta-large | 1 | 0.46673 | 0.462 | 0.464 |
| Bart-large | 0 | 0.46184 | 0.462 | 0.464 |
| Bart-large | 1 | 0.46401 | 0.463 | 0.463 |
| Bart-base | 1 | 0.47103 | 0.470 | 0.472 |
| Xlnet-large-cased | 1 | 0.47427 | 0.475 | 0.465 |
| Electra-large | 1 | 0.47100 |