高精度联邦学习模型的训练需要消耗大量的用户本地资源,参与训练的用户能够通过私自出售联合训练的模型获得非法收益.为实现联邦学习模型的产权保护,利用深度学习后门技术不影响主任务精度而仅对少量触发集样本造成误分类的特征,构建一种基于模型后门的联邦学习水印(federated learning watermark based on backdoor,FLWB)方案,能够允许各参与训练的用户在其本地模型中分别嵌入私有水印,再通过云端的模型聚合操作将私有后门水印映射到全局模型作为联邦学习的全局水印.之后提出分步训练方法增强各私有后门水印在全局模型的表达效果,使得FLWB方案能够在不影响全局模型精度的前提下容纳各参与用户的私有水印.理论分析证明了FLWB方案的安全性,实验验证分步训练方法能够让全局模型在仅造成1%主任务精度损失的情况下有效容纳参与训练用户的私有水印.最后,采用模型压缩攻击和模型微调攻击对FLWB方案进行攻击测试,其结果表明FLWB方案在模型压缩到30%时仍能保留80%以上的水印,在4种不同的微调攻击下能保留90%以上的水印,具有很好的鲁棒性.
现实生活中,代理为具有特定属性的人群提供服务,云存储的发展使得代理能够从云端获取丰富的数据以提高服务效率。在社交网络图中,具有特定属性的人群的邻居节点集很可能具有相同的属性,为代理获取数据提供了潜在机会。随着社交网络图规模的持续增长,本地维护这些数据已变得愈发困难。云计算的快速发展为解决这一问题提供了有效的途径:通过将社交网络图数据上传至云服务器,可以显著节省本地资源,但与此同时也带来了数据安全问题。结构化加密(Structured Encryption,STE)技术为这一问题提供了一种可行的解决方案。STE能够对社交网络图进行加密,并通过构建关联性的加密索引,支持对加密图的复杂查询操作。然而,结构化加密在查询效率和实用性上仍然存在一定的局限性。隐私集合并集(Private Set Union, PSU)协议能够在保护两方交集不被泄露的前提下求出两方集合的并集,为了使得代理从云端获取数据的过程中返回必要的数据并确保数据的安全性,我们提出了基于结构化加密的隐私集合并集协议(Private Set Union for Structured Encryption, STE-PSU),实现了服务器与代理两方的隐私集合并集操作,降低了查询过程中的计算和通信开销。方案引入一种不经意键值存储(Oblivious Key-ValueStores,OKVS)构造,即基于三个哈希函数的混淆布谷鸟哈希表(3-HashGarbledCuckooTable,3H-GCT),在保证隐私的基础上实现了两方高效的PSU协议。同时云服务器上的社交网络图通过结构化加密技术加密后存储,保证了数据的安全性。理论分析与实验结果表明,尽管我们提出的代理与服务器两方的PSU协议需要首先搜索加密索引再进行并集操作,但仍然比已有的PSU协议效率更优。安全性分析证明,本文方案满足自适应选择查询攻击(Adaptive Chosen Query Attacks, CQA2)安全性。
暂无评论