• • 下一篇
基于深度对比网络的印刷缺陷检测方法
摘要: 针对基于传统图像处理技术的印刷缺陷检测方法鲁棒性差与基于深度学习的目标检测方法不完全适用于印刷缺陷检测任务的问题,将模板匹配方法中的对比思想与深度学习中的语义特征结合,提出了用于印刷缺陷检测任务的深度对比网络(CoNet)。首先,提出了采用孪生结构的深度对比模块(DCM),通过在语义空间提取并融合检测图像与参考图像的特征图挖掘二者的语义关系。然后,基于非对称的双通路特征金字塔结构,提出了多尺度变化检测模块(MsCDM),用于定位并识别印刷缺陷。在公开的印刷电路板缺陷数据集上,CoNet的平均精度(mAP)为99.1%,与模板匹配方法和Faster R-CNN相比分别提升了9.8个百分点和1.5个百分点;与同样采用变化检测思路的两个基线模型最大分组金字塔池化(MP-GPP)和变化检测单次检测器(CD-SSD)相比,分别提升了0.5个百分点和0.8个百分点。在更复杂的立金缺陷数据集上,采用相同实验设定得出,CoNet的mAP为69.8%,不仅比模板匹配方法和Faster R-CNN的mAP分别高了12个百分点和5.3个百分点,而且相较MP-GPP和CD-SSD也分别提升3.5个百分点和2.4个百分点。此外,当输入图像分辨率为640×640时,CoNet的平均耗时为35.7ms,完全可以满足工业检测任务的实时性需求。
中图分类号: