剪贴解释:用于匿名检测和定位的自监督学习
较少学习规律性(例如,连续性和重复)。对于缺陷检测,本文希望提出一种数据增强方法来模拟局部不规则图案。
目前单分类异常检测算法的主要思想是训练一个能代表正常样本的模型,并假设这个模型不能很好地代表异常样本。然而,基于像素级重建损失无法获得高层语义信息。
本文采用了自我监督学习中托词任务的思想。在自监督学习的表征阶段,使用cutpaste为阳性样本生成图像,并训练一个二进制CNN来识别正常样本和添加cutpaste后的图像。在(b)异常检测和定位阶段,使用CNN提取特征,参数高斯概率密度估计(GDE)使用CNN提取的特征计算异常得分。对于图像级异常检测,可以使用GradCAM对异常区域进行粗略定位,使用面片级异常定位将原始图像分成若干个面片,发送给CNN - GDE分别计算异常分值,从而得到更细粒度的异常热图。
(第二阶段应该是不经过训练直接通过输出的表征计算出来的异常分。)
发现了一个现象。
那些使用对比自我监督学习来进行异常检测的人(simclr等。)第二阶段基本需要做finetune。
如果其他自监督学习用于异常检测(体现为托词任务不使用对比度学习,而是识别图像是否旋转),则在第二阶段可以不执行微调。
本文使用的数据增强方法cutpaste和cutpaste(scar),灵感来源于cutout和scar,scar是添加细长的线条。实际的自监督学习实验被看作三个分类问题,正常样本、有cutpaste的样本和有cutpaste(scar)的样本。
对于MVTec AD数据集,或者实际的缺陷检测任务,缺陷一般包含拉伸变形和特殊的纹理结构。对正常样本使用cutpaste的目的是通过使用cutpaste来模拟异常样本。通过使用可视化技术,作者发现添加cutpaste后的阳性样本与原始阳性样本之间的距离变大,但与真实异常样本的接近度变小,这表明仍然需要更好的数据增强方法。
实验比较
实验对比,缺陷定位
不同数据增强方法的消融实验
(学习和评估深度一分类的表示。在自监督学习阶段,图像旋转的不同角度被视为不同的类别。)
作者认为,对于不同类型的数据集,托词任务结合不同的数据增强方法影响很大。对于语义数据集,旋转效果更好,对于细节缺陷检测,本文的性能更好。需要根据异常的特征设计数据增强方法,以丰富与阳性样本差异较大的样本,最好能显示异常样本的特征。