咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >SWIPT-D2D通信中基于深度强化学习的资源分配 收藏

SWIPT-D2D通信中基于深度强化学习的资源分配

Resource Allocation Based on Deep Reinforcement Learning in SWIPT-D2D Communication

作     者:刘兴鑫 李君 李正权 LIU Xingxin;LI Jun;LI Zhengquan

作者机构:南京信息工程大学电子与信息工程学院南京210044 无锡学院电子信息工程学院江苏无锡214105 江南大学轻工过程先进控制教育部重点实验室江苏无锡214122 北京邮电大学网络与交换技术国家重点实验室北京100876 

出 版 物:《电讯技术》 (Telecommunication Engineering)

年 卷 期:2024年第64卷第5期

页      面:693-701页

学科分类:080904[工学-电磁场与微波技术] 0810[工学-信息与通信工程] 0809[工学-电子科学与技术(可授工学、理学学位)] 08[工学] 080402[工学-测试计量技术及仪器] 0804[工学-仪器科学与技术] 081001[工学-通信与信息系统] 

基  金:未来网络科研基金项目(FNSRFP-2021-YB-11) 

主  题:SWIPT-D2D 资源分配 深度强化学习 联合优化 

摘      要:针对信道状态信息未知SWIPT-D2D(Simultaneous Wireless Information and Power Transfer Device to Device)无线通信网络环境下设备间信号干扰以及设备能量损耗问题,提出通过使用近端策略优化(Proximal Policy Optimization,PPO)算法,在满足蜂窝用户通信质量要求的前提下同时对D2D用户的资源块、发射功率以及功率分割比三部分进行联合优化。仿真结果表明,所提算法相比于其他算法能够为D2D用户制定更好的资源分配方案,在保证蜂窝用户保持较高通信速率的同时使D2D用户获得更高的能效。同时,当环境中用户数量增加时,所提算法相比于Dueling Double DQN(Deep Q-Network)以及DQN算法,D2D能效分别平均提高了15.95%和23.59%,当通信网络规模变大时所提算法具有更强的鲁棒性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分