随着移动设备在人们日常生活中的广泛使用,移动数据流量在互联网上呈现出爆炸性增长。这种高速增长的大容量、多样化数据的移动服务或应用程序对传统的云计算范式提出了挑战,例如虚拟/增强现实、人脸识别等应用程序。为了应对这一挑战,一种以超低时延为特征的计算范式—多接入边缘计算(Multi-access Edge Computing,MEC)应运而生,该范式通过在靠近移动用户的基站或接入点部署通用边缘服务器来实现。数据缓存是一种通用技术,它可以将数据的副本存储在某个服务器中,以便在未来请求时快速检索数据。缓存作为边缘计算网络中的热门课题,主要包括数据内容缓存和服务缓存两部分。合适的数据内容缓存决策能够提升用户的使用体验,同时提高服务提供商的收益;合理的服务缓存决策可以提高任务的执行效率,减少延迟和能耗。因此,研究边缘计算中的缓存策略具有重要的应用价值。另一方面,服务缓存和任务卸载过程是紧密耦合的,并且缓存决策与卸载决策受到边缘服务器的存储和计算资源约束,这对边缘计算中缓存决策与任务卸载策略的设计提出了挑战。本文主要研究了由多用户和多边缘服务器组成的边缘计算系统中的数据内容缓存问题以及服务缓存下的任务卸载问题。首先,本文研究了多接入边缘计算场景下面向流行内容预测的数据缓存问题,构建了数据缓存收益模型,在存储容量的约束下,以最大化服务提供商数据缓存的收益为目标。针对该目标,提出了基于完全多项式时间近似方案的DCPA(Data Caching based on Popular Content Prediction Algorithm,DCPA)算法。本文通过仿真实验验证算法的性能,实验结果表明,相比于对比算法,DCPA算法在大规模场景下的运行时间稳定性好,数据缓存收益至少提升了33%。其次,本文研究了服务缓存下能耗感知的任务卸载问题(Energy-aware Task Offloading in Service Caching,ETOSC)。在该问题中,任务卸载策略不仅受边缘服务器的计算资源约束,同时受到服务器位置和任务本身属性的影响。本文通过将ETOSC问题归约到有容量限制的设施选址问题(Capacitated Facility Location Problem,CFLP)来证明该问题是NP难的,所以ETOSC问题无法在多项式时间内找到最优解。因此,本文考虑利用线性松弛等方法将问题转化为子模最大化问题,利用子模性提出了ETOSCA算法。通过仿真实验可以发现,相比于对比算法,ETOSCA算法能够节约至少8%的能耗成本。
暂无评论