446. CommonLit Readability Prize | commonlitreadabilityprize
首先,我要感谢 CommonLit 团队和 Kaggle 举办这场有趣的挑战赛,让我们得以探索最先进的 NLP 方法。训练数据的规模较小,且评审员对目标的标注存在差异,这使得这项挑战非常有趣。
我们的团队 Force Awakens 在比赛截止日期前一个月合并成立,我们发现大家采用了两种截然不同的方法,这对我们非常有利。
单独使用回归方法在 Public LB 上得分为 0.454,在 Private LB 上得分为 0.457。结合成对模型方法(Public 得分 0.454,Private 得分 0.454),我们的最终最佳得分为 Public LB 0.450 和 Private LB 0.452。
我们训练了许多不同的架构,包括 base/large/x-large 等版本。正如许多人观察到的那样,我们发现 large 模型在这个数据集和目标分布上表现最好。我们尝试了非常多的架构,包括但不限于 Roberta/Electra/Funnel/Deberta/StructBERT/BERT/XLNET/BART/T5/AlBERT/Luke/DistilBERT 等。
在回归任务中表现最好的模型有:
0.4640.4650.4660.4680.467训练方法:
self.whole_head = nn.Sequential(OrderedDict([
('dropout0', nn.Dropout(args.use_dropout)),
('l1', nn.Linear(args.fc_size, 256)),
('act1', nn.GELU()),
('dropout1', nn.Dropout(args.use_dropout)),
('l2', nn.Linear(256, 1))
]))