【目的】现有的语义变化检测方法对于遥感影像的局部和全局特征利用不足,且忽略了不同时相间的时空依赖性,导致土地覆盖语义分类结果不精确。此外,检测的变化对象存在边缘模糊问题,检测结果和实际变化区域的一致性有待提升。【方法】针对这些挑战,受具有长序列处理能力的视觉状态空间模型(Vision State Space Model, VSSM)启发,本文提出了一种融合卷积神经网络(Convolutional Neural Networks, CNN)与VSSM的语义变化检测网络CVS-Net。该网络有效结合了CNN的局部特征提取优势与VSSM捕捉长距离依赖关系的能力,并嵌入基于VSSM的双向时空关系建模模块以引导网络深入理解影像间的时空变化逻辑关系。此外,为增强模型对变化对象边缘的识别精度,提出了边缘感知强化分支,通过联合拉普拉斯算法和多任务架构自动集成边界信息,增强模型对于变化地物的形状模式的学习能力。【结果】在SECOND和FZSCD数据集上,将本方法与***4、Bi-SRNet、ChangeMamba、ScanNet及TED五种主流的SCD方法进行对比。实验结果显示,本方法的语义变化检测性能优于其他对比方法,验证了本方法的有效性。在SECOND数据集上实现了23.95%的分离卡帕系数(Sek)和72.89%的平均交并比(mIoU),在FZ-SCD数据集上的SeK达到23.02%, mIoU达到72.60%。消融实验结果中,随着在基础网络中添加各模块,SeK值逐步提升至21.26%、23.04%和23.95%,证明了CVS-Net中各模块的有效性。【结论】本方法可有效提升了语义变化检测的属性和几何精度,可为城市可持续发展、土地资源管理等应用领域提供技术参考和数据支撑。
暂无评论