574. CommonLit - Evaluate Student Summaries | commonlit-evaluate-student-summaries
这是我第一次参加Kaggle竞赛,最终在2000多支队伍中获得了第42名。
最终解决方案包含
| 编号 | 检查点名称 | 模型名称 | 添加特征 | 伪标签 | 内容RMSE | 表达RMSE | MCRMSE | LGBM内容RMSE | LGBM表达RMSE | LGBMMCRMSE |
|---|---|---|---|---|---|---|---|---|---|---|
| 1 | lrg-add-nops-202310101531 | large | 是 | 否 | 0.436815 | 0.563804 | 0.500309 | 0.416913 | 0.547992 | 0.482452 |
| 2 | lrg-add2-nops-202310071225 | large | 是 | 否 | 0.422034 | 0.557535 | 0.489785 | 0.422094 | 0.552657 | 0.487376 |
| 3 | deberta-large-pseudo-20231004 | large | 否 | 是 | 0.447833 | 0.599299 | 0.523566 | 0.431393 | 0.559015 | 0.495204 |
| 4 | cless-deberta-20230919-2131-ensamble | base | 否 | 否 | 0.478477 | 0.6168 | 0.547638 | 0.436959 | 0.556711 | 0.496835 |
| 5 | base-noadd-pseu-202310101211 | base | 否 | 是 | 0.450015 | 0.631051 | 0.540533 | 0.426784 | 0.570818 | 0.498801 |
| 6 | lrg-add2-ps-frz8-202310061415 | large | 是 | 是 | 0.450208 | 0.574412 | 0.51231 | 0.439451 | 0.563622 | 0.501536 |
列说明:
注意: 在输入中未添加prompt_text和prompt_question的模型(adds=False)的CV MCRMSE要差得多。然而,这通过LGBM得到了缓解,LGBM利用了prompt_text的手工文本挖掘技术,这些模型的LGBM MCRMSE得到了显著改善。
| 编号 | 指标 | 值 |
|---|---|---|
| 1 | 内容RMSE | 0.40780695722821314 |
| 2 | 表达RMSE | 0.5389858871892348 |
| 3 | MCRMSE | 0.47339642220872397 |
| 编号 | 指标 | 值 |
|---|---|---|
| 1 | MCRMSE(公开) | 0.432 |
| 2 | MCRMSE(私有) | 0.468 |
感谢该笔记本的作者,它对我帮助很大。