345. Kuzushiji Recognition | kuzushiji-recognition
感谢组织者举办这次有趣的挑战,也祝贺所有享受这次挑战的人!
我参加这次比赛是为了学习CNN。这就是为什么我没有个人GPU(我的工作是在Google Colab上进行的)并且没有使用任何预训练/预定义模型的原因,但这给了我很多知识和经验。
我的大部分解决方案都写在我的Kernel中。概览如图所示。

由于缺乏机器资源,我想使用浅层模型(比Resnet34小),因此我专注于CNN层的特定分辨率。考虑到物体的大小,64x64或32x32很重要,而小于16x16对我的模型来说是无用的。最终,我得到了一个非常准确的模型,IoU约0.90,F1(IoU>0.5)约0.98,F1(center)约0.99。
分类模型一点也不独特。我本想尝试其他模型和增强方法。
再次感谢大家!