499. UW-Madison GI Tract Image Segmentation | uw-madison-gi-tract-image-segmentation
大家好,祝贺所有的获奖者!
我的解决方案基本上是开箱即用的 nnUNet,它带我飞。
我使用 nnUNet 训练了3个模型,采用了 nnUnet trainerV2 fp32,并使用了不同的 DA(数据增强)设置 ——
| 默认设置 | 疯狂数据增强 | 无数据增强 | 加权集成 (0.6, 0.25, 0.15) |
|---|---|---|---|
| 0.881, 使用TTA为 0.883 | 0.878, 使用TTA为 0.881 | 0.875 | 0.885 |
我添加了一个简单的后处理方法,这是 Darien 发布的 —— 删除所有切片 138-144 的预测。
这个后处理对我在公共排行榜上没有影响,但在私有排行榜上增加了 +0.001。
| 默认设置 | 疯狂数据增强 | 无数据增强 | 加权集成 (0.6, 0.25, 0.15) |
|---|---|---|---|
| 0.872 | 0.872, 使用TTA为 0.877(!) | 0.865 | 0.877 |
“疯狂数据增强”模型在私有排行榜上表现非常好,但在公共排行榜上与其他实验相比表现不佳。
我在集成中给该模型的权重也非常低,仅为 0.25,并且没有对其进行 TTA(测试时增强)。
如果我把 insaneDA 模型作为主模型,在私有榜上达到 0.88 是完全可行的。
我也曾想将 3D nnUnet 与 2.5D 模型进行集成,但是我的 2.5D 模型分数无法超过 0.87,因此决定放弃。然而,根据 Carno 的实验,即使其中一个分数相对较低,集成 2.5D 和 3D 似乎也能带来相当不错的提升 (0.003)!我也成功从公共榜第45名逆袭到了私有榜第27名。
感谢所有分享宝贵见解的人,我从这次比赛中学到了很多!