自动化机器人在仪表读数自动识别任务方面的应用日益普及,这使得传统机器视觉算法和基于深度神经网络的方法都得到大量采用。然而,传统机器视觉算法鲁棒性不足且设计流程繁琐,而基于语义分割算法的深度神经网络方法计算量大、模型体积庞大且标注成本高。为克服这些问题,本文提出了一种利用YOLOv3和Mobile Net V2进行仪表检测和读数自动识别的方法,实现在自然环境中对指针式仪表的自动检测和读数识别。
为解决指针式仪表定位问题,本文对YOLOv3算法进行改进,设计Ception主干网络,并在此基础上优化了YOLOv3算法。在测试集m AP@0.5指标仅下降0.5%的情况下,模型体积缩小了28%,推理速度提高了57.4%。
本研究针对仪表读数识别问题,设计了基于Mobile Net V2的仪表读数识别方法。首先,提出一种仪表图像合成方法,通过单张仪表正视图,生成超过70,000张具有多样化示数和环境背景的仪表图像,从而创建一个丰富的图像数据集。接着,对Mobile Net V2模型进行了优化,以增强其对空间结构化图像数据预测性能。此外,还设计了一种多图预测与异常值过滤的推理策略,用于预测相邻类别之间的读数,从而进一步提高模型的预测上限。针对非均匀刻度仪表,重新设计类别分配策略,实现对非线性仪表读数的精确识别。在实际场景中,使用所提出的方法进行读数识别,误差率低于2%,预测正确率达到98.25%,满足变电站机器人巡检需求。
本文针对模型部署问题,利用Tensor RT技术对YOLOv3和Mobile Net V2模型进行量化加速。在FP32浮点精度条件下,改进后的YOLOv3模型精度降低0.9%,但推理速度提高3.65倍。同时,优化后的Mobile Net V2模型在FP32精度下,精度降低1.45%,推理速度则增长至539.249FPS。
经过最终实验验证,本研究提出的指针式仪表定位和读数识别方法可以有效地适应实际应用场景需求。相较于基于传统图像处理技术的指针式仪表读数获取方式,本方法在面对实际环境因素变化时展现出更高的稳健性,因此更适用于现实场景。
暂无评论