351. Categorical Feature Encoding Challenge | cat-in-the-dat
我思考了很久是否要发布我的解决方案,因为它可能并不比其他复杂的方案更好。
但它真的非常简单,而且表现很好。它更像是一个基线模型。我希望你能从中有所收获。: )
除了 optuna 之外,我在比赛开始时就做了这些事情。我在最后一天调整了参数 C,并且一次性训练了模型,而不是使用 K折交叉验证。这让我的分数提高到了 0.80850。
我是机器学习的新手,这是我第一次参加比赛。感谢 Kaggle 和所有参与这次比赛的人。我从你们那里学到了很多,这比排名更重要。感谢你们的分享!