504. Feedback Prize - Predicting Effective Arguments | feedback-prize-effectiveness
我要感谢所有的参与者和比赛的主办方。
感谢团队所有成员的辛勤工作( @tomoyayanagi, @kashiwaba, @zacchaeus, @shairahama )
如果没有团队,我不可能取得现在的成绩。
所有模型均采用 Token 分类构建。
Token 分类在 discourse_text 的开头添加了 [CLS] token,在结尾添加了 [SEP] token。
成员们使用的池化方法有所不同,使用了 cls token 或平均池化。
最好的输入方法是在开头和结尾引入特殊 token(start, end)(由 @zacchaeus 引入)
<{discourse_type} start> discourse text <{discourse_type} end>
我们发现了每篇文章主题的标签趋势。
基于这些结果,我们将主题文本添加到了输入的顶部。
这个方法为我们提供了最好的单模型(由 @zacchaeus 构建)
主题信息取自公开的 Notebook。非常感谢。
(https://www.kaggle.com/code/jdoesv/take2-feedback-essays-to-prompts)
topic prompt [SEP] <{discourse_type} start> discourse text <{discourse_type} end>, ...
我记得主办方曾发布讨论说文章的主题是通用的。因此,我认为这个方法奏效了。
起初,我们将所有 2021 年的数据作为伪标签,但由于数据分布差异太大,训练进展并不顺利。因此,我们采用了采样并使用部分数据的方法。
所以,以下方法对我们很有效(由 @kashiwaba 引入)
伪标签与训练基础模型的折痕相匹配,以最大限度地减少泄露
另一个考虑是根据主题对 2021 年的数据进行采样,因为 2022 年的主题分布不同,但没有足够的时间
我们构建了一个第二层模型,使用第一层模型对 3 个标签的预测展平作为特征。
Discourse_type 作为元特征添加。
使用的模型包括逻辑回归、lgbm 和 xgb。
相比使用基于 Nelder-Mead 集成的加权平均,这显著提升了 CV 和 LB 分数