返回列表

8th place solution (OneFormer works)

567. Google Research - Identify Contrails to Reduce Global Warming | google-research-identify-contrails-reduce-global-warming

开始: 2023-05-10 结束: 2023-08-09 双碳与可持续发展 数据算法赛
作者: ts
发布时间: 2023-08-10
比赛排名: 第8名

总结

  • 模型:OneFormer、effnet、MaxViT、resnetrs、nfnetf5
  • 使用软标签和伪标签进行训练
  • 优化集成权重
  • 损失函数:二元交叉熵(BCE)
  • 仅使用随机图像裁剪,不使用测试时增强(TTA)和掩码偏移

引言

我们的团队要感谢组织者和Kaggle举办这次比赛。同时,我想对我们的杰出队友@cnumber@yukiokumura1的贡献表示衷心感谢,他们的努力对我们的最终成绩起到了至关重要的作用。

详细说明

我们的主要策略是结合使用多种模型,并使用软标签和伪标签。

  • 模型:

在比赛初期,我们主要尝试结合使用smp和timm库,但在比赛中期,我们开始使用OneFormer。

OneFormer表现最佳。
单模型OneFormer(dinat-l)的私有排行榜得分:0.70204
交叉验证中holdout dice分数:effnet b7: 0.671,OneFormer(dinat-l): 0.693

模型分辨率如下:(推理设置)

OneFormer effnetb7, b8 MaxViT-Tiny, Base resnetrs nfnetf5
1024 640 512 512 640
  • 数据:软标签和伪标签:

训练时使用软标签(所有标注者标签的平均值)。我们还为部分模型引入了伪标签。当两者结合使用时,会在0到7时间帧的图像上随机进行训练,其中仅对第4时间帧使用软标签,其余情况均使用伪标签。

  • 优化集成权重:

为了最大化集成性能,我们在交叉验证环境中使用Optuna进行优化。这使我们能够高效地验证最佳模型组合。

供参考

  • 强骨干网络与伪标签的相互作用:

使用伪标签的影响(当使用伪标签训练时,effnet b7: 0.685,OneFormer(dinat-l): 0.695) *伪标签是每个模型在holdout上训练结果的平均值。

然而,OneFormer的提升相对有限。
一个假设是,伪标签可能带来知识蒸馏的效果。当骨干网络达到一定强度时,这种效果的影响可能会达到上限。

同比赛其他方案