483. Happywhale - Whale and Dolphin Identification | happy-whale-and-dolphin
我要感谢主办方举办这场精彩的比赛。
同时,我也要祝贺所有顶尖的参赛者。
我非常荣幸能与 @hwigeon 成为队友。
起初,我们使用原始数据集 + Detic 裁剪。
在同一训练阶段,我们将数据集翻倍(原始数据集 + Detic 裁剪),以便让我们的 Arcface 更好地学习边界。
但最终,我们手动制作了裁剪后的全身数据集,并用它替换了 Detic 裁剪。
使用了 Efficientnet 5、6、7 + Arcface 或 Dolg,Nfnet,Nfnet+hybridVit,Nfnet+dolg。
选择了 Arcface margin = 0.3。
尺寸范围是 [768~1024]。
优化器选择了 RAdam+Lookahead 或 Madgrad。
原始数据集 + 我们手动裁剪的数据集轻松达到了 Public LB 0.83x。
在伪标签之后,我们的 Public LB 得分为 0.858,Private LB 得分为 0.826。
Nfnet 网络使用了翻转增强。
Efficientnet 使用了翻转 + HSV 增强。
选择了一个仅包含 2 个个体的验证集作为留出集。
我们没有关注新个体,因为我们认为 top1 分数最重要。
我们验证集的缺点是无法对结果进行后处理以预测新个体。
我们的 top1 CV 达到了 0.89x。
为了使用 KNN,我们将所有嵌入连接到 axis = -1。
之后我们使用 KNN=1 并收集最近的 880 个个体。
新个体阈值设为 0.375、0.4、0.425、0.45,并使用 1:1:1:1:1 的权重对五次提交进行投票。
我们可以从 Arcface 输出中获得余弦内积输出值并用于重排序,但这并没有太大帮助。
Convnext、EfficientNetV2、Swin Transformer(384尺寸)对我们来说效果不佳。
我们错过了背鳍的使用,而大多数竞争对手都使用了背鳍。
许多报告指出,使用背鳍对于这次比赛至关重要。
我们尝试了一点背鳍,但看起来效果不太好,所以很快就放弃了。
虽然我们在工作和学业非常繁忙的情况下尽了最大努力,但对于获得银牌仍感到有些遗憾。我将继续付出更多努力。
感谢您的阅读!