第10名解决方案
第10名解决方案
作者:Starry (团队:Starry, Harwa Wang, yeqing shen, DengChy728)
比赛排名:第10名
主要思路
使用 nnUNet 框架,利用所有数据在不同尺寸的图像块(patch size)下进行训练。
模型演变过程
在比赛初期,我们使用了 2.5D U-Net,但在公共排行榜(Public LB)上仅获得了 0.877 的分数,排名 70 多名。这个结果并不令人满意,因此我们转而使用 3D U-Net。
我们尝试了 3D MONAI 框架和 nnUNet 框架。由于 3D MONAI 框架的结果无法与之相比,我们最终选择了 nnUNet。
nnUNet 训练细节
- 数据清洗:移除了标签错误的数据:case7_day0, case81_day30。
- 初步尝试:使用 fold1 训练 500 个 epoch。图像块大小(Patch size)= 160,160,80。无 TTA 时 LB 分数为 0.878,有 TTA 时为 0.881。
训练 3D 模型耗时太长,因此我们决定使用所有数据进行训练,并始终选择最终保存的模型。
- 全量训练 1:使用所有数据训练,图像块大小 = 160,160,80。无 TTA 时 LB 为 0.881,有 TTA 时为 0.884。
- 全量训练 2:使用所有数据训练,加载 160,160,80 的预训练模型,图像块大小 = 192,192,96。无 TTA 时 LB 为 0.882,有 TTA 时为 0.886。私有排行榜(Private LB)分数:0.877。
- 全量训练 3:使用所有数据训练,加载 160,160,80 的预训练模型,图像块大小 = 224,224,112。有 TTA 时 LB 为 0.885。私有排行榜分数:0.880(我们未将其作为最终提交)。
- 模型集成 1:集成了训练的 3 个模型:LB 为 0.885,私有 LB 为 0.880(未作为最终提交)。
- 最终模型:集成了训练的 6 个模型(包括 5 折交叉验证中的一些模型):公共 LB 为 0.886,私有 LB 为 0.879(作为我们的最终提交)。
训练时间
| 配置 (图像块大小) |
Epochs |
硬件环境 |
耗时 |
| 160 x 160 x 80 |
1000 |
单张 RTX3090 |
约 24 小时 |
| 160 x 160 x 80 |
1000 |
3 张 RTX6000 |
约 120 小时 (队友 @harwawang 训练) |
| 224 x 224 x 112 |
1000 |
单张 RTX3090 |
约 83 小时 |
总结
nnUNet is all your need. (nnUNet 就是你所需要的一切。)