传统的单目图像深度估计主要基于环境假设的光学几何约束,例如从运动中恢复结构和立体图像匹配,但是割裂了图像序列中,相邻图像帧与帧之间的联系。而卷积神经网络的方法对计算机硬件要求较高,无法满足实时性的要求。本文结合最新热点SLAM(Simultaneous Localization and Mapping)中的前端视觉里程计(Visual Odometry VO)对单目图像的深度进行恢复。单目视觉里程计具有结构简单、低成本、实时性的特点,为使移动机器人在室内的环境中运行稳定,本文将单目相机取得的图像作为研究数据,采用特征点法设计系统,实现深度估计,具体表现在利用图像序列中相邻关键帧与关键帧之间的投影关系来估计相机的位姿和恢复相机的运动轨迹。本文在传统的ORB(Oriented FAST and Rotated BRIEF)算法基础上,借鉴了SIFT(Scale-Invariant Feature Transform)算法匹配高精度的尺度空间的想法,提出了构建简化的尺度空间,增加了特征点的尺度信息;通过预检测,剔除图像中灰度值变化不明显的区域,提出了优化的Harris角点提取方法,提高了角点提取速率;采用新的圆形检测窗口代替原先的方形检测窗口,避免了图像旋转时,方形窗口四个角的灰度值的剧烈变化所造成的特征点主方向偏移,并在圆形窗口中计算图像灰度值的梯度方向直方图来确定特征点的主方向,提高了主方向的鲁棒性;以上改进在特征点匹配准确度实验当中提高了29.2%的匹配准确度。图像的特征点匹配出现误匹配点对是无法避免的,本文匹配在误匹配点对删除中,对传统的随机采用一致性(Random Sample Consensus RANSAC)算法进行了改进,利用特征点周围的灰度值信息不变性以及舍弃错误的投影关系来加快传统RANSAC的运行速率,实验表明改进的RANSAC算法与原来相比提高了20%左右的速率。本文在Mikolajczyk公开的数据集中验证了上述算法改进的优越性,并在TUM数据集中以ORB-SLAM2为框架,对改进的ORB算法和改进的RANSAC算法组合进行了准确性和实时性的验证,实验表明改进的算法在满足实时性的同时提高了相机位姿恢复的准确度。
暂无评论