数字图像作为当前信息传递的主要载体之一,在采集、传输、存储等操作过程中,可能由于人为或者自然因素,导致最终呈现的画面存在缺陷。图像缺陷的存在极大地阻碍了原有信息的表达,这些图像缺陷包括但不限于色调偏移、亮度偏移、噪声、坏块和条纹干扰等。图像缺陷检测旨在及时发现并定位图像中的各个缺陷,具体的检测方法需要根据实际场景来选取。本文的研究对象是图像缺陷检测,需要对各类缺陷具备较高的检测精度,因此本文采用有监督的Faster R-CNN网络模型来进行图像缺陷检测,并在此基础之上展开研究。针对将Faster R-CNN应用于图像缺陷检测时可能出现的问题,本文的研究内容如下。首先,图像缺陷发生的类型极受场景约束,因此所搜集的数据集将存在长尾现象,直接基于长尾数据集训练的Faster R-CNN对于实例数量稀少的尾部类别检测精度低。为了解决这个问题,本文给出了一个新的分类器损失函数,为梯度引导加权-延迟负梯度衰减损失(Gradient Guide Weighted and Deferred Negative gradient Decay Loss,GGWDND Loss)。它根据检测器分类节点的累计梯度比值分别对正负梯度重新加权,减轻尾部类分类器的受抑制状态,并且,当模型优化到一定阶段,直接降低每个节点产生的负梯度以增强尾部类分类器的泛化能力。广泛的实验结果表明,在应用该损失函数之后,Faster R-CNN提升了对于尾部类的检测效果。其次,为了使网络模型更快地在空间上学习到关键特征,本文借鉴注意力机制原理基于缺陷样本的颜色先验信息生成空间上的概率特征图,并将其与深度特征图融合后进行训练。概率特征图上的高亮区域(高概率区域)与指定类别显著相关,对应深度特征图空间上的位置也应当被强调学习。本文的实验结果表明,所提方法能够有效使网络模型更快地学习到关键特征。最后,采用交并比损失(Intersection of Union Loss,Io U Loss)的回归器并不能准确地反映预测框距离真实框的理想程度,因此本文对多个变种Io U回归损失进行实验比较,从中选取适合本文任务的回归损失函数。此外,本文还探讨了Focal-CIo U Loss的实现,以及对图像缺陷检测的影响。基于Image-Defects数据集和NEU-DET-LT数据集的实验均表明CIo U Loss兼具收敛速度和检测精度,较为适合用于图像缺陷检测。本文所提Focal-CIo U Loss相比于CIo U Loss,能够在允许轻微降低小目标缺陷(像素面积小于32×32)检测精度的前提下,显著提升大目标缺陷(像素面积大于96×96)的检测精度。上述所提方法相对独立,可以相互配合用于改进Faster R-CNN在应用于图像缺陷检测时的表现。一方面,基于Image-Defects数据集的实验结果表明,本文优化后的Faster R-CNN网络模型取得了最好的检测精度,达到了79.32%m AP,优于原模型和两个对比模型。另一方面,基于NEU-DET-LT数据集的实验结果也表明,本文所提改进方案对于其他种类的缺陷检测具备一定的泛化性。
暂无评论