剪贴解释:用于匿名检测和定位的自监督学习

本文要解决的是单一分类问题。通过对正常样本的学习,检测出未知类型的异常,更倾向于缺陷检测。方法整个过程分为两步。首先,基于自监督学习方法学习样本表示,然后使用单个分类器对样本表示进行分类。通过本文提出的CutPaste,实现了正常样本的表示学习和分类。剪切粘贴(CutPaste)是一种数据增强方法,从图像中剪切出一个矩形区域,粘贴在任意位置。剪切粘贴的目的是产生空间不规则性,作为不参与训练的真实缺陷的近似。一些流行的现有方法将旋转和对比学习应用于单个分类,但本文的实验证明旋转或对比学习对于缺陷检测不是最优的。作者怀疑几何变换,如旋转和位移,在学习语义概念(如学习对象)的表征时是有效的,但是

较少学习规律性(例如,连续性和重复)。对于缺陷检测,本文希望提出一种数据增强方法来模拟局部不规则图案。

目前单分类异常检测算法的主要思想是训练一个能代表正常样本的模型,并假设这个模型不能很好地代表异常样本。然而,基于像素级重建损失无法获得高层语义信息。

本文采用了自我监督学习中托词任务的思想。在自监督学习的表征阶段,使用cutpaste为阳性样本生成图像,并训练一个二进制CNN来识别正常样本和添加cutpaste后的图像。在(b)异常检测和定位阶段,使用CNN提取特征,参数高斯概率密度估计(GDE)使用CNN提取的特征计算异常得分。对于图像级异常检测,可以使用GradCAM对异常区域进行粗略定位,使用面片级异常定位将原始图像分成若干个面片,发送给CNN - GDE分别计算异常分值,从而得到更细粒度的异常热图。

(第二阶段应该是不经过训练直接通过输出的表征计算出来的异常分。)

发现了一个现象。

那些使用对比自我监督学习来进行异常检测的人(simclr等。)第二阶段基本需要做finetune。

如果其他自监督学习用于异常检测(体现为托词任务不使用对比度学习,而是识别图像是否旋转),则在第二阶段可以不执行微调。

本文使用的数据增强方法cutpaste和cutpaste(scar),灵感来源于cutout和scar,scar是添加细长的线条。实际的自监督学习实验被看作三个分类问题,正常样本、有cutpaste的样本和有cutpaste(scar)的样本。

对于MVTec AD数据集,或者实际的缺陷检测任务,缺陷一般包含拉伸变形和特殊的纹理结构。对正常样本使用cutpaste的目的是通过使用cutpaste来模拟异常样本。通过使用可视化技术,作者发现添加cutpaste后的阳性样本与原始阳性样本之间的距离变大,但与真实异常样本的接近度变小,这表明仍然需要更好的数据增强方法。

实验比较

实验对比,缺陷定位

不同数据增强方法的消融实验

(学习和评估深度一分类的表示。在自监督学习阶段,图像旋转的不同角度被视为不同的类别。)

作者认为,对于不同类型的数据集,托词任务结合不同的数据增强方法影响很大。对于语义数据集,旋转效果更好,对于细节缺陷检测,本文的性能更好。需要根据异常的特征设计数据增强方法,以丰富与阳性样本差异较大的样本,最好能显示异常样本的特征。