针对云服务器中存在软件老化现象,将造成系统性能衰退与可靠性下降问题,借鉴剩余使用寿命(Remaining useful life,RUL)概念,提出基于支持向量和高斯函数拟合(Support vectors and Gaussian function fitting,SVs-GFF)的老化预测方法.首...
详细信息
针对云服务器中存在软件老化现象,将造成系统性能衰退与可靠性下降问题,借鉴剩余使用寿命(Remaining useful life,RUL)概念,提出基于支持向量和高斯函数拟合(Support vectors and Gaussian function fitting,SVs-GFF)的老化预测方法.首先,提取云服务器老化数据的统计特征指标,并采用支持向量回归(Support vector regression,SVR)对统计特征指标进行数据稀疏化处理,得到支持向量(Support vectors,SVs)序列数据;然后,建立基于密度聚类的高斯函数拟合(Gaussian function fitting,GFF)模型,对不同核函数下的支持向量序列数据进行老化曲线拟合,并采用Fréchet距离优化算法选取最优老化曲线;最后,基于最优老化曲线,评估系统到达老化阈值前的RUL,以预测系统何时发生老化.在OpenStack云服务器4个老化数据集上的实验结果表明,基于RUL和SVs-GFF的云服务器老化预测方法与传统预测方法相比,具有更高的预测精度和更快的收敛速度.
高精度联邦学习模型的训练需要消耗大量的用户本地资源,参与训练的用户能够通过私自出售联合训练的模型获得非法收益.为实现联邦学习模型的产权保护,利用深度学习后门技术不影响主任务精度而仅对少量触发集样本造成误分类的特征,构建一种基于模型后门的联邦学习水印(federated learning watermark based on backdoor,FLWB)方案,能够允许各参与训练的用户在其本地模型中分别嵌入私有水印,再通过云端的模型聚合操作将私有后门水印映射到全局模型作为联邦学习的全局水印.之后提出分步训练方法增强各私有后门水印在全局模型的表达效果,使得FLWB方案能够在不影响全局模型精度的前提下容纳各参与用户的私有水印.理论分析证明了FLWB方案的安全性,实验验证分步训练方法能够让全局模型在仅造成1%主任务精度损失的情况下有效容纳参与训练用户的私有水印.最后,采用模型压缩攻击和模型微调攻击对FLWB方案进行攻击测试,其结果表明FLWB方案在模型压缩到30%时仍能保留80%以上的水印,在4种不同的微调攻击下能保留90%以上的水印,具有很好的鲁棒性.
暂无评论