为解决基于改进的生成对抗网络(WGAN-GP)的数据增强方法用于医学图像融合时融合图像效果差的问题,本文首次提出一种基于迁移学习的改进WGAN-GP模型(Transfer-WGAN-GP),用于计算机断层成像(CT)与T2加权磁共振成像(MR-T2)图像融合.该模型首先从红外与可见光图像的融合过程中学习特征映射的方法,利用改进的WGAN-GP损失函数不断优化训练网络中的生成器与鉴别器,得到一个有初始化参数的网络;将网络中的初始化参数经过一定微调迁移到CT与MRT2图像的融合网络中继续训练;最终得到同时包含两种源图像所携带的语义信息的融合图像.在Havard Medical School的全脑图谱数据集上进行实验,结果表明Transfer-WGAN-GP模型与数据增强方法相比,Transfer-WGAN-GP得到用于医学诊断的融合图像质量更高.
暂无评论