478. Feedback Prize - Evaluating Student Writing | feedback-prize-2021
在撰写我们的解决方案之前,我们要感谢佐治亚州立大学和 Kaggle 举办这次比赛,并祝贺大家。同时,我非常享受与我的 UPSTAGE 团队(sergei, ducky, 和 dlrgy22)一起参加这次比赛。
训练代码和推理笔记本如下:
流程如下:
验证策略 -> 文本预处理 -> 模型 -> 集成 -> Logits 后处理
✔️ 有效的尝试:
- 初始学习率 1e-5
- 较小的最大梯度范数(约 1.0)
- 带预热的平台或线性衰减学习率
- SWA(稳定验证性能,至少提升 +0.01)
- 通过指数移动平均过滤噪声标签的 Mean Teacher 方法
❌ 无效的尝试:
- 初始学习率 3e-5
- 较大的最大梯度范数(约 10)
- SAM 优化器
- Dice Loss / Focal Loss(gamma 2.0)
- DeBERTaV3 中的位置桶扩展
预处理前的实体:,Some quotation here.
预处理后的实体:Some quotation here.
例) discourse_id -> 1621804837671
原始文本: t would allow students to …
修改后文本: it would allow students to …
我们使用了 4 个 DeBERTa 模型:DeBERTa v1 large 和 xlarge 模型,DeBERTa v2 xlarge 模型以及 DeBERTa v3 large 模型。
以下是每个模型的训练代码及运行方法:
更多细节和示例请参阅上方的方案文档。
我们使用了首标记集成。
在本次比赛中,我们针对标记的 logits 进行了集成。然而,由于每个模型使用的分词器定义的词表不同,即使是相同的文本,分词结果也可能不同