近年来,我国内河航运业务得到快速发展,船舶运输在降低社会物流成本的同时,航道的安全问题也越来越突出。因此,准确的内河船舶目标检测就成为航道安全监测的重要环节。但内河航道中山川、河流及桥梁等复杂背景易与船舶在图像上融为一体导致局部特征难以提取,雨雾、晚间等低可视环境导致全局特征检测精度低等问题,使得现有的基于视觉的目标检测方法无法满足内河航道船舶目标检测的精度要求。本文依托广西重点研发计划项目《基于智能网络与三维环境感知技术的船舶辅助驾驶系统研发与应用》,针对船舶视觉感知中复杂背景和低可视环境下的船舶目标检测开展研究,论文主要研究内容如下:(1)针对背景复杂图像中船舶局部特征难以提取的问题,本文提出了一种融合卷积自注意力与多尺度特征的船舶目标检测算法。首先在YOLOv5检测器的特征提取网络层中加入卷积自注意力模块(A mixed model that enjoys the benefit of both self-Attention and Convolution,ACmix),通过残差结构构建卷积自注意力-空间金字塔快速池化模块(Self-Attention and Convolution-Spatial Pyramid Pooling Fast,AC-SPPF),以此来弱化复杂背景干扰,并强化特征提取和信息融合能力。其次在颈部网络层中加入加权双向特征金字塔网络(Bidirectional Feature Pyramid Network,BIFPN)进行多尺度特征融合,改善模型的局部特征表达能力。最后在检测头层增加大尺度检测头提升目标检测能力。为验证上述算法,本文在Seaships数据集上开展验证实验,对比文献46方法、Faster R-CNN、YOLOv5的m AP分别提高11.9%、5.9%、3.8%,精确率和召回率对比YOLOv5分别提升3.9%、6.8%。(2)针对低可视环境下图像检测算法难以有效提取全局特征的问题,本文提出了一种基于全局上下文网络的船舶目标检测算法。通过融合全局上下文(Global Context Network,GCNet)机制,并将其嵌入YOLOv5的深、浅层特征提取网络中,以提升低可视环境下船舶的检测精度。通过生成全局注意力特征图模型,从全局视角重点关注目标特征信息,进而改善低可视环境下船舶目标漏检、误检的问题。最后,在自制的低可视环境数据集上进行了实验验证与分析。实验结果表明,本文方法较Faster R-CNN、SSD、YOLOv5的m AP分别提高9.8%、13.5%、5.5%,精确率和召回率对比YOLOv5分别提升8.4%、6%。上述改进的方法除在公开数据集和自制数据集上验证外,本文还采集了实际的复杂视觉背景和低可见度环境下的视频素材作为测试集,验证了本文方法提升船舶目标检测精度的有效性。
暂无评论