返回列表

49th place (Weighted Loss etc.)

519. Feedback Prize - English Language Learning | feedback-prize-english-language-learning

开始: 2022-08-30 结束: 2022-11-29 智能评测 数据算法赛
第49名方案 (加权损失等)
作者: taruto
比赛排名: 第49名

我是NLP领域的新手,这是我第一次参加NLP比赛。
所以我从这次比赛中学到了很多东西。
感谢主办方举办这次比赛。

概览

我集成了15个模型(使用4折交叉验证)。
我在所有模型中使用了正交初始化、重新初始化最后一层以及层级学习率衰减。
这些方法对我来说效果很好。

加权损失在部分模型上稍微提高了CV和LB分数。
加权损失可能是我方案的一个独特之处。
我分享了我的加权损失代码
加权损失倾向于提高那些容易预测的目标的得分。
为了模型的多样性,我想为每个模型制作两个版本(一个使用加权损失,另一个不使用),但没有足够的时间来训练所有这些模型。

然后我尝试将一些方法(AWP, SiFT, MIXout等)应用到Deberta-v3-base模型中,但都没有奏效。
然而在比赛快结束的时候,我发现SiFT和MIXout对Deberta-v3-small(不使用加权损失)效果很好。
我想将这些方法应用到其他模型(large, xsmall, Roberta等),但没有时间训练了……
所以这些方法仅应用于Deberta-v3-small模型。

我最佳提交所使用的模型如下。
模型列表

对于 deberta-v3-XXX 设置 max_len=1462,其他设置 max_len=512

有效的方法