为了减少动态目标对移动机器人视觉同步定位与地图构建(simultaneous localization and mapping,SLAM)系统性能的影响,提出了一种基于语义分割和光流的视觉SLAM方法。首先,融合卷积神经网络MobileNetV2和语义分割网络DeepLabv3+提取动...
详细信息
为了减少动态目标对移动机器人视觉同步定位与地图构建(simultaneous localization and mapping,SLAM)系统性能的影响,提出了一种基于语义分割和光流的视觉SLAM方法。首先,融合卷积神经网络MobileNetV2和语义分割网络DeepLabv3+提取动态目标特征,使特征提取网络模型轻量化;然后,利用改进的DeepLabv3+结合Lucas-Kanade光流法实现对环境中动态目标的检测与剔除,获取静态目标上的特征点并进行匹配与位姿估计;最后,在关键帧上使用时间加权多帧融合技术,对动态目标遮挡的部分进行背景修复,为重定位环节提供更准确的匹配信息,进一步提升定位精度。在TUM RGB-D动态场景数据集上的实验结果表明,与ORB-SLAM2相比,该视觉SLAM算法在保证系统实时性的同时,使得定位精度提升约97%,明显降低了绝对轨迹误差和相对位姿误差,有效消除了动态目标对位姿估计的影响,提升了SLAM系统位姿估计的准确性和鲁棒性。
暂无评论