674. Jigsaw - Agile Community Rules Classification | jigsaw-agile-community-rules
首先,我要感谢 Kaggle 和 Jigsaw ACRC 组织并主办了这场精彩的比赛。
我公开了我的最佳提交方案:notebook。
Qwen2.5-instruct-14b, 2xQwen2.5-instruct-7b, 2xQwen3-instruct-14b 和 2xQwen3-instruct-8b。bge-base-v1.5, Qwen3-embedding-0.6b 和 DeBERTa-v3-small。subreddit 列。事实证明它在预训练和 TTT 阶段都无用。"You are given a comment on reddit. Your task is to classify if it violates the given rule. Only respond Yes or No.\nRule: {rule_str}""1. ```{example_body_str}```\nViolation:{answer_str}"Qwen2.5-instruct-7b 的 LoRA 权重,并作为单个模型运行推理。同样的方法也应用于两个 Qwen3-instruct-7b 模型。LightGBM, XGBoost 和 SVC)。这背后的想法是利用训练数据集(在 TTT 期间使用)来训练这些 ML 模型,以输出可以与其他模型的相应概率进行集成的概率。bge-base-en-v1.5 模型使用三元组损失 (Triplet Loss) 进行训练,如公共 notebook 中建议的那样。final_embedding = concat([body_embeddings - positive_examples_centroid_embedding, body_embeddings - negative_examples_centroid_embedding])
rule_violation, no_rule_violation(我也尝试过其他配置,例如每个规则一个类别,但在我的测试中效果不佳)。'{rule}: {body}' 作为输入,但分数没有提高)。[CLS] token) 提取嵌入。'{rule}[SEP]{body}'。| 模型 | 公共分数 (Public Score) | 私有分数 (Private Score) |
|---|---|---|
2xQwen2.5-instruct-14b |
0.90828 | 0.90248 |
2xQwen3-instruct-14b |
0.92571 | 0.92049 |
2xQwen2.5-instruct-7b |
0.91024 | 0.90637 |
2xQwen3-instruct-8b |
0.89598 | 0.88969 |
2xbge-base-v1.5 |
0.90952 | 0.89714 |
Qwen3-embedding-0.6b |
0.88856 | 0.88021 |
DeBERTa-v3-small |
0.89546 | 0.88946 |