第18名 Private LB 方案 -> 银牌
第18名 Private LB 方案 -> 银牌
作者: Igor Lashkov, ammarali32
比赛排名: 第18名
我们的团队非常感谢 Kaggle 员工和 Google 主办这场激动人心的比赛,也感谢这里所有的参赛者。祝贺所有参与者!
特别感谢 @ammarali32 的辛勤和高效的团队合作。我们真的很享受这次比赛!
关键点
- 自定义数据集
- 使用在 LAION-2B 上训练的 CLIP 视觉编码器,微调了 22 个 epoch
- 仅使用 ArcFaceMarginLayer 训练投影层
- 使用大小为 64 的单个投影全连接 (FC) 层(比使用多个 FC 效果更好)
- TTA(测试时增强)—— 将图像从 224 放大到 240 有助于将分数提高约 0.003-0.004
- 通过在实际训练开始前预提取嵌入 (embedding) 来缩短训练时间。我们后来发现了这项技术,并没有过多依赖它。
数据集
无效的尝试
- 训练时使用强数据增强
- 使用对比损失 进行无监督学习
- 训练时使用零填充 的图像
- MET、艺术史数据集、130K 张图片
- 距离层、ElasticArcFace
- AdaptiveAveragePooling、GeM pooling、多层线性层
- 在 GLR 数据集中使用更多的单类图片数 / 更多的类别数