670. NeurIPS - Ariel Data Challenge 2025 | ariel-data-challenge-2025
我们(@horikitasaku 和 @takaito)想对主办方举办如此出色的比赛表达诚挚的感谢。
特别感谢工作人员,如 Sohier Dane @sohier 所有的辛勤工作和支持。
这确实是一场设计精良的比赛,清晰地反映了组织团队的专业性和科学严谨性(例如 @gordonyip 及其同事)。物理学家一直是我最尊重的群体。
我们的方法可以总结为以下几个阶段:
wl_preds (Horikita)这里我们基本上完全遵循了 Pascal 的 notebook,并处理了 obs0 和 obs1。
wl_preds (CV: ~0.42, LB: -0.45)凌日检测的核心思想是利用信号梯度的极值。
我假设凌日边界会出现在导数曲线的特征位置上。整体流程如下:
平滑:平滑信号及其梯度以去除高频噪声。
异常值移除:裁剪超出 5σ 的梯度值,将边缘设为零,然后应用额外的高斯平滑。
阈值扫描:
局部采样:在 (t1, t2) 和 (t3, t4) 周围采样,并比较基线与凌日片段。如果入凌/出凌深度太浅,则将边界向序列的开始或结束移动。
后处理:修复异常样本。在初始版本中未实现此步骤,但在数据集更新后我观察到了 Phase Detector 的 bug。经过分析,我发现许多异常信号,因此添加了此步骤。


这里我参考了 Ariel 2024 的两个顶级解决方案:
不幸的是,这部分对 sigma 预测几乎没用。
在我的单独实验中,使用这些 sigma 通常会使最终分数降低约 0.1,低于理论上限分数。
所以真正的价值在于生成基础 wl_preds 和源自物理过程的特征。我们采用了两种主要模式:
模式 1(主要):基于 xomox 的流程,做了一些修改:
wl_preds、重构信号、理想凌日模型和物理衍生特征。
模式 2(次要):实现了 cnumber 的方法,只做了一些 minor changes。这提供了一组独立的 wl_preds 和额外特征。
受 ADC2024 有效方法的启发,我们没有直接预测 wl,而是训练深度学习模型来预测步骤 1 中粗略计算的 wl_preds 与真实值 wl_true 之间的差异 wl_diff。换句话说,神经网络执行残差修正。
wl_preds 作为基础预测。wl_diff (= wl_true - wl_preds)。直观上,步骤 2 已经提供了每个波长的 σ (step2_sigma),但在样本级别仍存在系统性偏移。
为了解决这个问题,我们将偏移总结为一个单一的标量比例因子 a,分别针对 FGS (wl0) 和 AIRS (所有其他波段) 学习。想法很简单:
具体操作:
minimize_scalar(method='bounded') 寻找最优的 a。a 四舍五入到 0.01 增量,以防止过拟合评估指标中的随机噪声。最后,我们训练了一个梯度提升模型来学习这个 a 并应用它进行缩放,从而稳定了 sigma 预测。
sigma_scaled[:, 0] = (
np.array(mean_a_preds_fgs)
* step2_sigma[:, 0]
).clip(CFG.MIN_SIGMA)
# AIRS
sigma_scaled[:, 1:] = (
(a_preds_airs).reshape(-1, 1)
* step2_sigma[:, 1:]
).clip(CFG.MIN_SIGMA)
为了提高排行榜分数,我们使用测试数据及其预测值重新训练了模型。
为避免过拟合,我们仅使用 wl_diff 的预测值,不使用预测的 sigma 值。
(步骤 2 涉及检查大量学习曲线,我们观察到即使 MSE 过拟合训练数据,验证性能也很少恶化。这让我们有信心在这里应用伪标签。)
以下是我们观察到的趋势:

