581. Google - Fast or Slow? Predict AI Model Runtime | predict-ai-model-runtime
感谢Kaggle和Google组织本次比赛!这是我第一次参赛并乐在其中。比赛前我们对图神经网络(GNN)一无所知,但通过本次比赛学习了很多。同时感谢我的优秀队友@roysegalz。
对于Tile数据集,我们使用RGCN模型,其中关系类型基于node_opcode。模型包含4个模块,每个模块结构为:RGCN -> LayerNorm -> ReLU
我们在Tile数据集上达到0.198的分数(Layout数据集使用随机预测)
我们意识到区分不同图的关键在于强调node_config_feat特征。由于包含配置信息的节点数量远少于图中总节点数,这些数据在前向传播中容易丢失。我们的解决方案如下:
首先我们通过nn.Embedding和独热向量重新表示node_config_feat,然后构建了以下核心模型架构:

在每个模块后重新拼接数据显著提升了模型性能。
所有Layout数据集均采用相同的模型架构。
模型包含3个模块,每个模块结构为:GATv2 -> LayerNorm -> ReLU(由于RGCN在Layout数据集上计算开销过大,我们改用GATv2)
我们的交叉验证分数:
| 数据集 | Kendall-Tau CV |
|---|---|
| XLA default | ~0.3 |
| NLP default | ~0.5 |
| XLA random | ~0.62 |
| NLP random | ~0.94 |