返回列表

[9th place] Detailed report

495. Image Matching Challenge 2022 | image-matching-challenge-2022

开始: 2022-04-04 结束: 2022-06-02 计算机视觉 数据算法赛
[第9名] 详细报告

[第9名] 详细报告

作者: Chan Kha Vu
发布时间: 2022年6月3日

首先,我要感谢 Kaggle 工作人员和组织者举办了如此有趣和好玩的比赛,特别是 @oldufo@eduardtrulls,他们不仅响应迅速,还提供了很棒的示例笔记本,向我们展示了如何使用 LoFTR、DISK 和 DKM 进行提交。他们以最温和的方式将我们引入了特征匹配的新领域,让我们的生活变得轻松多了!

同时,热烈祝贺 @forcewithme 的团队获得第一名!你们取得的成就,特别是在结束前几天从 0.836 跃升到 0.863 的成绩,令人惊叹,并激励我探索更有创意的解决方案(虽然我没找到什么新花样哈哈)。迫不及待想阅读顶级团队的赛后总结。

我加入比赛的时间比较晚,距离结束仅剩 19 天,而且每天只花几个小时,所以我根本没指望能拿金牌。我的解决方案建立在以下笔记本的基础上:IMC 2022-kornia : Score 0.725(作者 @cbeaud),SuperGlue baseline(作者 @losveria),以及 Public Baseline DKM - 0.667(作者 @radac98)。在这份报告中,我将尝试详细描述我使用的所有技巧。

有趣的事实:我有一个 0.851 的私有测试集成绩,本可以让我排在 第5名,但由于多种原因(我将在下面解释),我在最终提交时甚至没有考虑选择它。


我的解决方案

在这场比赛中,后处理是王道!正如 @old-ufo这个帖子 中提到的,组织者的主要目标是发现更好的后处理技术,因为该领域之前的工作只专注于更好的建模。

关于 MAGSAC++ 的几句话

我完全没有试验 MAGSAC 的参数。我保留了 这个公开笔记本 中的 MAGSAC 参数:

cv2.findFundamentalMat(mkpts0, mkpts1, cv2.USAC_MAGSAC, 0.1845, 0.999999, 220000)

仅在最后一次提交中,为了结果更稳定,我将迭代次数改为 250000,仅仅因为我负担得起。下面我将以“公共 LB / 私有 LB”的格式报告我的分数。

简单的集成、TTA 和缩放:0.824/0.833 基线

所有公开笔记本中一个常见的错误是它们没有将结果匹配的关键点正确地重新缩放回原始图像大小。为了集成多个模型和跨 TTA,我只是将它们的关键点连接在一起,然后全部输入到

同比赛其他方案