597. Playground Series - Season 4, Episode 2 | playground-series-s4e2
尽管第24名不像前三名那样耀眼,但我非常高兴能够取得这一成绩。我一直希望投入时间通过Kaggle提升技能,而这次不仅成功做到了,还获得了24名的奖励。
好了,情感表达就到这里,让我们进入解决方案的详细说明。
该解决方案的思路基于@divyam6969的代码[1]。这基本上是一个XGBoost和LightGBM的集成模型。我没有添加任何特征,对数值特征使用了StdScaler。对于分类特征,在XGBoost中使用了MEstimateEncoder(直到这次比赛才知道这个方法),而在LightGBM中使用了OneHotEncoder。
交叉验证采用了10折分层K折(Stratified K-fold)。最关键的部分是调整集成模型的权重,这导致了排行榜(LB)上的差异。