505. American Express - Default Prediction | amex-default-prediction
感谢 Amex 和 Kaggle 举办这场比赛!这是一场非常有趣的比赛,让我获得了很多见解。
这是我们集成方案两篇文章中的第一篇(队友 @gandagorn)。我负责的部分主要是采用不同的预处理方法,并将它们通过不同的架构进行处理(感谢 @jiweiliu、@lucasmorin、@raddar 提供的优秀 notebooks)。
第二部分请见:https://www.kaggle.com/competitions/amex-default-prediction/discussion/348058

根据分裂重要性依次移除特征。
标准的 LGBM,使用 dart 模式训练,并在 log-loss 中加入了单向 focal loss。加入单向 focal loss 的目的是为了更好地对正类进行分类。
没有什么特别的。
全连接架构,使用了与提升树模型相同的特征。进行了 20 折交叉验证(20 folds CV)。
这可能是最有趣的模型。这是一个双输入的神经网络:表格特征(来自之前的预处理)和排名后的原始特征的完整时间序列。训练过程如下:

对于 Transformer,我使用了标准的 TransformerEncoderBlock,配置为 8 个头和 2 层。