我的最终解决方案是 ARChitects2024 方法 的轻微修改版本。我的其他实验都无法超越它,所以非常感谢 ARChitects 团队公开他们的工作。
鉴于分数的不稳定性,我没有选择 LB 结果最好的那个。相反,我选择了两个(链接如下)表现更一致的提交。
以下是我做的主要调整:
1. 训练
- 每个任务进行 TTT(测试时训练)
- num_epoch = 24
- 将 num_train 减少到 3 以加快训练
- batch_size = 4
- grad_accumulation_step = 2
- 在其中一个提交中移除了背景线以加快训练
2. 推理
- n = 1
- 将 num_train 减少到 2 以加快推理
- 使用 2 个子进程加速推理
- DFS 的 top_k = 4 以减少搜索时间
使用这些超参数,并非所有任务都能在 12 小时限制内完成。我尝试降低 num_epoch,但性能下降很多,所以我坚持使用 24。