返回列表

7th place solution

583. NeurIPS 2023 - Machine Unlearning | neurips-2023-machine-unlearning

开始: 2023-09-11 结束: 2023-11-29 AI安全与对抗 数据算法赛
第7名解决方案

第7名解决方案

作者:Jiaxi Sun
发布时间:2023年12月3日

首先,我要向Kaggle平台及其专业团队致以最诚挚的感谢,感谢他们提供的宝贵支持和帮助,他们的工作确实令人钦佩。我非常幸运地在本次比赛中获得第八名,这段经历为我打开了一扇通往迷人研究领域的大门。同时,我也要感谢其他参赛队伍,他们无私地分享知识,这是机器学习快速发展的原因之一。

我们的解决方案代码可以在这里找到:噪声注入遗忘方法

概述:

我们团队设计了一种简单而有效的遗忘策略,仅需要使用重训练集。该解决方案包含三个阶段:

(1) 重置全连接层(FC)的参数,并对整个模型进行微调。

通过重置全连接层参数,我们可以改变最终输出的分布,同时保留网络学习到的特征。这有效减少了模型在遗忘集上的过拟合效应。

(2) 从网络中随机选择N层,以加法方式向特定层添加噪声,并微调这些层。

添加噪声有助于网络“遗忘”已学习的信息,噪声和层选择的随机性有助于增强模型的多样性。值得注意的是,模型多样性对最终得分有显著影响,因为单一模型分布使得成员推理攻击(MIA)更容易成功。

(3) 微调所有网络层。

这一步的主要目标是恢复网络因“遗忘”信息而损失的准确性。

尝试过但未提升的技巧:

  • 使用类别权重进行训练。
  • 将加法噪声改为乘法噪声,但未观察到显著提升。
  • 基于模型梯度统计计算重训练集和遗忘集中参数的重要性,并在遗忘集中更重要的参数上添加更多噪声。
  • 使用标签平滑或焦点损失来减少过拟合/提高模型泛化能力。

因资源限制未尝试的方法:

由于资源有限,一些可能有效的方法未被探索。

  • 在微调过程中增加原始模型参数与当前模型参数之间的距离。
  • 在512个模型中使用多种遗忘策略进行集成学习。

结论:

总之,这次比赛对我来说是一次极好的学习经历,在大约两个月的时间里,我对一个全新的领域有了深入的了解。我很幸运取得了不错的成绩,希望我的微薄贡献能对相关领域有所裨益。我再次感谢所有参赛队伍的慷慨分享。虽然这次比赛没有获得奖牌,但从讨论中激发的想法和思考,将成为机器学习发展道路上的坚实基石。

同比赛其他方案