642. CIBMTR - Equity in post-HCT Survival Predictions | equity-post-HCT-survival-predictions
首先,我想向以下开源作者和我的团队表示崇高的敬意:
(以上排名不分先后)
A:目标一:CoxPHFitter 的交叉验证 (CV)
B:目标二:custom_target 尽可能地将 0 和 1 分开
def custom_target(self):
cus_target = self.data[['efs','efs_time']]
cus_target['y'] = self.data.efs_time.values
mx = cus_target.loc[cus_target.efs==1,"efs_time"].max()
mn = cus_target.loc[cus_target.efs==0,"efs_time"].min()
cus_target.loc[cus_target.efs==0,"y"] = cus_target.loc[cus_target.efs==0,"y"] + mx - mn
cus_target.y = cus_target.y.rank()
cus_target.loc[cus_target.efs==0,"y"] += 2*len(cus_target)
cus_target.y = cus_target.y / cus_target.y.max()
cus_target.y = np.log( cus_target.y )
cus_target.y -= cus_target.y.mean()
cus_target.y *= -1.0
return cus_target
我们训练了两个简单的模型(CNN,DNN)来拟合这两个目标。
我们做了一些更改:
if ind.any():
val.loc[ind, col] = train[col].mode()[0]
对于树模型部分,我们使用两个具有不同特征的分类树进行后处理。并使用 xgboost、lightgbm 和 catboost 来训练公共代码中提到的通用目标。我们树模型使用的特征在公共代码中很容易看到。
更多细节请参考:https://www.kaggle.com/code/kudosn/nn-tree-ensemble
(方案结构图)
from cib_metric import score 改为 from metric import score,我们刚发现 UTILITY SCRIPTS 已被删除。
(惊喜图片)