为了提高门限签名方案的计算效率,结合Gennaro等(GENNARO R,JAREAKI S,KRAWCZYK H,et *** distributed key generation for discrete-log based *** of Cryptology,2007,20(1):51-83)的分布式密钥生成协议和谷科等(谷科,贾维嘉,姜春林....
详细信息
为了提高门限签名方案的计算效率,结合Gennaro等(GENNARO R,JAREAKI S,KRAWCZYK H,et *** distributed key generation for discrete-log based *** of Cryptology,2007,20(1):51-83)的分布式密钥生成协议和谷科等(谷科,贾维嘉,姜春林.高效安全的基于身份的签名方案.软件学报,2011,22(6):1350-1360)的签名方案,在标准模型下利用双线性对技术构造了一个新的门限签名方案。所提方案没有可信的密钥份额分发中心,每个参与者都可以验证一些必要信息,从而避免了恶意私钥生成中心攻击和公钥份额代换攻击。通过与现有类似的两个门限签名方案对比表明,所提方案减少了双线性对运算,提高了计算效率。
高精度联邦学习模型的训练需要消耗大量的用户本地资源,参与训练的用户能够通过私自出售联合训练的模型获得非法收益.为实现联邦学习模型的产权保护,利用深度学习后门技术不影响主任务精度而仅对少量触发集样本造成误分类的特征,构建一种基于模型后门的联邦学习水印(federated learning watermark based on backdoor,FLWB)方案,能够允许各参与训练的用户在其本地模型中分别嵌入私有水印,再通过云端的模型聚合操作将私有后门水印映射到全局模型作为联邦学习的全局水印.之后提出分步训练方法增强各私有后门水印在全局模型的表达效果,使得FLWB方案能够在不影响全局模型精度的前提下容纳各参与用户的私有水印.理论分析证明了FLWB方案的安全性,实验验证分步训练方法能够让全局模型在仅造成1%主任务精度损失的情况下有效容纳参与训练用户的私有水印.最后,采用模型压缩攻击和模型微调攻击对FLWB方案进行攻击测试,其结果表明FLWB方案在模型压缩到30%时仍能保留80%以上的水印,在4种不同的微调攻击下能保留90%以上的水印,具有很好的鲁棒性.
暂无评论