446. CommonLit Readability Prize | commonlitreadabilityprize
首先,我在团队中的贡献主要在于模型堆叠的过程。因此,我想主要讨论一下集成的方法。
| 模型 | CV (交叉验证) | Public (公共榜) | Private (私有榜) |
|---|---|---|---|
| roberta-base | 0.4778 | ? | ? |
| roberta-large | 0.4697 | 0.460 | 0.464 |
| electra-large | 0.4747 | 0.462 | 0.474 |
| mpnet-base | 0.4816 | ? | ? |
| longformer-large | 0.4873 | ? | ? |
在堆叠过程中,我们将句子嵌入(由 sentence_transformers 生成)与所有模型的预测结果一起加入,目的是不仅考虑预测目标,还考虑句子本身的特征。当通过 KPCA(n_components=2, kernel='poly')对句子嵌入进行降维时,CV 分数最高。在集成阶段,我们采用了 Ridge 和 ARDRegression 的平均预测结果,因为 LGBM 在 CV 上表现很好(约 0.432~),但似乎过拟合了(公共排行榜分数较差),而其他模型没有取得这么好的 CV 分数。
最后,我想感谢所有与我们竞争并分享许多有用见解的人。感谢您的阅读!