通过使用控制变元(control variate)来校准每个客户端的新型学习本地梯度 ,Scaffold 已被广泛认为是后门化训缓解联邦学习中数据异质性影响的一种强大方案。但尽管 Scaffold 实现了显著的攻击性能提升 ,这种优越性是直指中心以增加安全漏洞为代价的
。 本文中,联邦U联练安NTU
、揭示0G Labs等机构提出了 BadSFL,全漏这是新型学习首个针对 Scaffold 的后门攻击方法 ,它能够将原本良性的亿华云后门化训客户端转化为攻击的帮凶以放大攻击效果 。 BadSFL 的攻击核心思想是在不引人注意的情况下
,篡改控制变元,直指中心从而巧妙地引导良性客户端的联邦U联练安本地梯度更新朝着攻击者设定的「中毒」方向前进,有效地使它们在无意间成为协助者
,揭示显著增强了后门的全漏持久性 。 另外
,新型学习BadSFL 利用一个经过生成对抗网络(GAN)增强的数据投毒策略,服务器租用丰富了攻击者的数据集
,在保持对正常样本和后门样本都具有高精度识别能力的同时 ,保持隐蔽性 。 大量实验证明 ,BadSFL 在攻击持续性方面表现出色
,即使在停止恶意模型注入之后
,仍能维持超过 60 轮的攻击效果——比现有基准方法持续时间长达三倍。 该论文已经入选 ICCV 2025 。 联邦学习(Federated Learning
,简称 FL)在保护客户端数据隐私的同时,实现了分布式模型训练。然而,模板下载FL 模型的有效性在很大程度上取决于训练数据在各客户端之间的分布情况。通常存在以下两种场景 :1)IID 数据
:训练数据在各客户端之间均匀分布;2)非 IID 数据 :更符合现实的数据分布情况 ,即各客户端的数据特征存在显著差异
。在 IID 场景下
,已有工作 FedAvg 脱颖而出 ,它通过聚合来自客户端的模型参数,设定了服务器端模型更新的标准。然而 ,在非 IID 场景中
,其性能会显著下降
。源码下载由于数据异质性,不同客户端的更新方向存在偏移
,最终导致模型收敛效果变差。 为应对这一挑战 ,Scaffold 作为一种稳健的联邦学习(FL)方法被提出,旨在通过基于控制变元(control variates)的校正机制来减缓客户端更新的偏移,从而提升在非 IID 场景下的模型收敛性。控制变元本质上是对客户端本地梯度与全局梯度之间差异的估计,它有助于将本地更新方向与全局优化目标对齐。建站模板Scaffold 能够减少由于数据异质性引起的更新方差,使其在客户端拥有多样化数据分布的场景中表现尤为出色
。 然而 ,Scaffold 联邦学习(SFL)不仅改变了 FL 模型的收敛方式,也影响了其对抗恶意操控的鲁棒性。具体而言,联邦学习中的恶意客户端可以利用模型更新机制注入后门行为 ,将隐藏的异常行为植入全局模型中。尽管已有大量研究关注 FL 中的后门攻击
,免费模板但大多数现有工作主要聚焦于 IID 场景
,在这些场景中
,攻击者对数据集分布具有完全认知,因此可以轻松构造中毒更新。相比之下,非 IID 数据分布引入了额外的限制
,使得攻击者更难在不显著降低整体性能的前提下,将中毒模型与全局模型对齐。虽然近期已有研究开始探索非 IID 联邦学习中的后门攻击,但这些研究在很大程度上忽视了 SFL 引入的独特安全隐患
。 因此
,本论文旨在探讨的问题是:「SFL 的新机制(即用于校正更新偏移的控制变元)是否可能引入新的安全威胁
,并在非 IID 场景中无意间为后门攻击提供便利?」 我们对上述问题的回答是肯定的
。我们的新发现是 :Scaffold 对控制变元的依赖引入了一种新的攻击面 —— 其原本用于通过将本地更新与全局目标对齐以稳定训练过程的校正机制,实际上可能在无意中放大了恶意更新的影响。更关键的是,这一机制允许攻击者直接影响控制变元本身 ,从而有效地将良性客户端「招募」为协助实施攻击的帮凶。 由于所有客户端在更新过程中都会使用控制变元来调整本地梯度,因此一旦控制变元被篡改
,就可以在不易察觉的情况下引导这些诚实客户端的梯度朝着攻击者设定的「中毒方向」演化。这种方式极大地增强了后门攻击的传播范围,使得 Scaffold 比没有类似校正机制的标准 FL 方法(如 FedAvg)更容易受到复杂攻击的影响 。 为了利用上述发现,我们提出了一种专门针对 Scaffold 联邦学习(SFL)的新型后门攻击方法 ——BadSFL,该方法能够在不显著破坏模型对正常样本推理性能的前提下,成功地将后门功能植入全局模型。 与以往的攻击方法不同,BadSFL 利用了 Scaffold 的校正机制,不仅增强了后门的隐蔽性,还提升了其持久性,从而揭示了 SFL 方法中的一个关键漏洞。BadSFL 的运作流程包括如下: 在联邦学习(FL)中,非 IID 是指客户端之间的数据分布存在显著差异。在非 IID 场景下,这种本地数据分布的不一致会导致本地最优解与全局最优解之间存在偏差
。这种偏差会引发本地模型更新的漂移现象
,即本地模型倾向于朝着各自的本地最优解前进,而这些本地最优解可能与全局最优解相距甚远。因此
,将这些本地模型进行平均时,得到的全局模型可能会偏离真实的全局最优解,尤其是在存在大量本地训练轮次的情况下。 如下图 1 所示,在 IID 场景下,全局最优解与本地最优解相对一致 ,而在非 IID 场景下 ,全局最优解可能与单个本地最优解相距较远
,这一现象被称为客户端漂移(client-drift) ,从而导致 FL 训练过程中的收敛变慢且不稳定。 为了解决上述挑战,学术界已经提出了多种联邦学习(FL)算法,其中 Scaffold 是最为实用的解决方案。它通过在服务器端和客户端同时使用控制变元(即方差缩减技术)来应对客户端漂移问题。这些控制变元能够估计全局模型与本地客户端模型的更新方向,并根据漂移对本地更新进行校正
,从而减少本地最优解与全局最优解之间的偏差(见算法 1)。在本文中
,我们主要聚焦于针对 SFL(Scaffold Federated Learning)的后门攻击设计 。 后门攻击在 SFL 中的挑战 在 SFL(Scaffold Federated Learning) 中实施后门攻击面临以下挑战: 为克服上述挑战
,我们提出了 BadSFL,其详细步骤见算法 2。BadSFL 主要包含以下 4 个步骤: 基于 GAN 的数据集补充 在非 IID 数据场景中
,直接将后门样本注入数据集 为缓解这一问题
,攻击者可以使用 GAN 生成与其他客户端数据相似的合成样本。其方法是通过在本地非 IID 数据上训练生成器 G ,以缩小数据集之间的差距
。GAN 的架构主要由生成器 G 和判别器 D 组成。在本文场景中
,生成器 G 由一系列「反卷积」层组成 ,它们逐步将随机噪声转换为样本;而判别器 D 的结构与全局模型高度相似
,唯一区别在于输出层用于区分假样本和真实样本 。攻击者在本地迭代训练生成器 G ,并以判别器 D 作为约束,直至其收敛并能够生成逼真的伪样本,这些样本并不来自攻击者的原始数据 。 与此同时
,随着 SFL 过程的进行,全局模型逐渐收敛。在每一轮服务器 - 客户端通信中
,攻击者都会利用从服务器下载的最新全局模型 攻击者在每一轮本地训练中,会利用从服务器下载的最新全局模型 触发器选择与注入 利用已准备好的数据集 使用控制变元来进行后门训练 如前文所述
,全局控制变元 c 在 SFL 中用于纠正客户端漂移
。具体来说 ,校正值 从攻击者的角度来看,如果按照 SFL 规则让控制变元去校正中毒模型 ,会降低后门攻击的有效性。然而,攻击者仍然需要提交一个控制变元 最初,攻击者执行后门训练,并按如下 公式 (1) 优化其后门目标
: 其中,L 表示后门任务的损失函数
, 在 BadSFL 攻击中
,我们对标准后门目标函数进行了修改 ,增加了一项约束,以确保攻击者发送到服务器的后门更新能够在后续更多轮训练中持续保留在全局模型的后门功能中。我们可以模拟一次聚合轮
,并应用控制变元 c 来预测未来一轮的全局模型。修改后的目标函数为公式 (2): 综合起来,我们将攻击目标形式化为以下公式 (3): 其中 ,j 表示 本文在 MNIST、CIFAR-10 以及 CIFAR-100 三个数据集上对 BadSFL 的有效性进行了实验评估。实验比较了 4 个其它的已知后门攻击,包括Block-box Attack、Neurotoxin、Irreversible Backdoor Attach (IBA) 和 3DFed 。下表 1 总结了细节的实验设置 。 从图 6a 到图 6f,我们展示了在 CIFAR-10 和 CIFAR-100 数据集上与基准方法的攻击对比。可以明显看出
,BadSFL 在攻击有效性和持久性方面都优于基准攻击方法 。 具体来说
,在攻击者仍参与训练过程、执行后门训练并向服务器上传恶意更新的前 10 轮中,BadSFL 在所有类型的后门攻击中都实现了超过 80% 的后门任务准确率。同时
,BadSFL 保持主要任务的准确率在 60% 左右(见下图 5b) 。此外 ,即使攻击者在第 40 轮退出训练过程 ,后续轮次中的良性客户端仍会继续上传正常更新,这可能会影响攻击者在之前攻击轮次中的中毒更新,从而逐渐抹去后门功能 。 尽管如此
,BadSFL 仍能保证后门功能的持久性 ,在整个 100 轮 SFL 训练中后门任务准确率始终保持在 90% 以上,这比两种基准攻击的生命周期长 3 倍(基准攻击的后门任务准确率在第 60 轮后降至 50% 以下)。横向对比不同类型的后门触发器注入效果(图 6a、6b 和 6c),可以发现 基于特征的触发器表现最佳 ,得益于其隐蔽性 ,它不直接篡改图像,因此其更新与良性更新冲突的可能性较小。 图 6g 和图 6h 展示了在 MNIST 数据集上获得的实验结果
。类似地
,BadSFL 也优于其他基准攻击方法,在后门任务准确率和主要任务准确率上均超过 85%。当恶意更新在第 40 轮停止注入后,在标签翻转攻击中,两种基准攻击的后门任务准确率在 10 轮内灾难性地下降到 40% 以下,而 BadSFL 在后续轮次中能在全局模型中保持 长达 5 倍更持久的后门功能。在触发器模式攻击中,BadSFL 也在全局模型中注入了更高效的后门功能,其准确率比基准方法高出 10%。 本文提出了 BadSFL
,这是一种专为使用 Scaffold 聚合算法的非 IID 联邦学习环境设计的新型后门攻击 。通过采用基于 GAN 的数据增强技术并利用 Scaffold 的控制变元,BadSFL 在攻击有效性、隐蔽性和持久性方面均优于现有方法
。我们在多个基准数据集上的实验结果表明
,该攻击具有显著的有效性,且后门功能的持续时间远超已有方法 。未来 ,我们希望研究人员能够设计出更稳健的防御机制 ,包括使用在去中心化环境中的可验证训练方法,以保护联邦学习系统免受此类攻击的威胁。


和控制变元 c ,并启动攻击。随后,攻击者利用下载的全局模型
来更新本地模型
和判别器 D
。步骤 2 :基于 GAN 的数据补充训练
。攻击者在生成器 G 和判别器 D 上执行 GAN 训练 。当生成器收敛时 ,意味着其具备生成逼真伪样本的能力,这些样本属于类别 C
,但不来自
(攻击者本地数据集),而是模拟来自其他客户端的数据集。然后
,生成器 G 被用于生成一定数量的类别 C 样本,形成数据集
。该数据集
接着与攻击者的原始数据集
合并,生成新的数据集
。步骤 3
:后门样本选择与触发器注入。在数据集
上,攻击者选择带有特定特征的样本作为后门样本,并将其重新标注为目标类别 x,该目标类别与原始标签不同。攻击者将这些经过篡改的样本组织成单独的数据集
,并将其与
合并
,最终得到用于后门训练的数据集
。步骤 4:后门模型训练与优化。攻击者基于数据集
训练本地模型
。在训练过程中,攻击者按照公式 (3) 优化后门目标。模型收敛后 ,得到后门模型更新
以及对应的控制变元
,并可将其上传至服务器 。
进行训练往往会导致模型出现更大的偏差 ,显著偏离全局最优解 。
更新判别器 D,并对生成器 G 进行新一轮优化训练,以引导其生成更加真实、接近其他客户端数据的伪样本。最终,这些高质量的合成样本会被整合进攻击者原始的非 IID 数据集
,从而有效地补充了额外的数据类别。
同步更新判别器 D,随后执行 GAN 训练以优化生成器 G 的性能 。该过程的输出结果会被合并到攻击者的非 IID 数据集中
,用于进一步的后门训练 。由于生成的样本与其他客户端数据集的样本高度相似,攻击者训练得到的本地最优解能够比其他客户端的本地最优解更接近全局最优解。下图 3 展示了在有与无数据补充技术的情况下,聚合后的全局最优解之间的差异。
(包含原始数据和合成数据),攻击者继续在模型中注入后门 。BadSFL 使用以下三种技术来实现后门注入:
中某一类样本 a 的真实标签直接修改为另一标签 b。例如,在 CIFAR-10 中 ,将所有「dog」标签改为「cat」。触发器模式(Pattern trigger):在样本中加入特定的触发模式进行投毒,例如在图像中添加一个小马赛克方块 ,以激活后门行为
。攻击者将这些带触发器的投毒图像与目标标签一同注入
,从而建立触发模式与目标错误分类之间的关联 。基于特征的隐蔽后门(Feature-based backdoor)
:这种方法更为隐蔽 ,它通过选择某个类别中的独特特征作为后门触发器 ,而无需直接篡改图像 ,从而增加检测难度
。例如 ,在 CIFAR-10 中 ,将「car」类中的所有绿色汽车设为后门触发器。在推理阶段,只有当输入图像中包含绿色汽车时,受损模型才会输出攻击者设定的目标标签。由于这种触发器是类内自然特征的变异
,因此很难被检测到。
会将本地模型的参数调整到更接近全局模型的位置
。在本地模型训练过程中,这一校正项能够有效地「拉动」发生漂移的本地模型,使其更接近全局模型,从而促进模型向全局最优解收敛
。在服务器聚合阶段
,全局控制变元 c 是通过对所有本地模型的漂移值进行平均计算得到的,这一平均值代表了全局模型的收敛方向。
来报告后门模型的漂移情况 。其关键思路是
:训练一个比其他基于非 IID 数据训练的本地模型更接近全局模型的后门模型。由于全局控制变元 c 对参与的客户端是已知的,它可以作为全局模型收敛方向的参考,帮助中毒模型更好地对齐全局最优解。这种基于 c 的约束类似于「利用未来的全局模型进行优化」的思路 。该约束可以被集成到损失函数中
,以增强后门在全局模型中的有效性和持久性
。
为攻击者模型的权重。

预期的未来训练轮数。通过将后门模型优化得更接近全局模型
,攻击者同时优化控制变元
,使其与预期的漂移值对齐。这样可以确保攻击者的行为仍然符合 SFL 协议(算法 1) 。

