512. Google Universal Image Embedding | google-universal-image-embedding
恭喜获奖者。有点遗憾只拿到了银牌。
我的方案可以总结如下:
与直接使用自适应平均池化相比,蒸馏可以带来 0.015~0.03 的 LB 提升。
Vit-L avgpooling: 0.608, distillation: 0.623
Vit-L-336 avgpooling: 0.628, distillation: 0.643
Openclip-Vit-H avgpooling: 0.641, distillation: 0.663
(均为 Public LB 成绩)
( 但是!!!!也许直接训练 64 维投影层的效果也不错,我没时间做更多实验了...☹️)。(已解决)
更新:代码(不含 collating 的简单版本)已发布在 GitHub。
更新:直接训练 64 维投影层在 Public/Private LB 上的得分为 0.644/654,而蒸馏在 Public/Private LB 上的得分为 0.663/0.666,这意味着知识蒸馏确实提高了模型的性能。✔️