原文解读:
论文解读:Rectifying the Shortcut Learning of Background for Few-Shot Learning-CSDN博客
文章汇总
问题&动机&解决方法
图像背景是一种有害知识的来源,这是少数镜头学习模型容易吸收的(问题)
通过在训练和评估中提取图像中的前景目标而不需要任何额外的监督来解决这个问题(动机)
在训练和评估时将模型的注意力吸引到图像前景上(方法)
创新点
创新点1:
在训练中去除背景可以防止捷径学习
背景训练有助于模型处理复杂的场景
简单的融合取样结合了两者的优点,给定一张图像作为输入,选择其前景版本的概率为p,选择其原始版本的概率为1 - p
创新点2
预训练任务-基于聚类的目标搜索器(COS)
1:对每张图片随机裁剪,得到L个子图,每个子图经过预训练主干变为特征高度密集的向量
对该类中所有patch进行分类,总共得到H个类别
2:一张图片中某个patch(子图)属于H个类别中的某个类别,我们就说这张图片也属于这个类别(明显,一张图片很有可能会属于多个类别,因为不同的子图有可能会属于不同的类别)
3:那么如何判断H个类别中某一个类别是否是前景呢,我们要求属于这个类别的图片的数量到达指定的阈值。如果没有到达该类别则为背景,其他到达阈值的类别(总共h个)正是我们想找的"前景"。
4:为对应某个patch(子图),的意思为该patch密集特征和其中一个前景类别(总共h个)的模长,则h个前景类别中最小的一个模长(应该是最相似的一个类别)。1-最小模长为该子图得分,即就是该patch与最相似的前景类别的得分。因此得到每个patch与h个前景类别的得分。
top-k(聚类中的概念)为置信度
由于选择的是融合特征,图片保留为原始版本的概率为,其中为该图片所有子图跟哪个类别最相似的概率。如果不保留为原始版本,那么选择的前景为该图片top-k中的某个patch,概率为
支持和查询集间寻找共享内容-基于共享对象集中器(SOC)的少镜头评估
对于查询集,依然是每个图片得到V个子图特征(来自查询集),通过步骤1,找到V个高度代表了一个类别的特征,从小到大排序为(来自支持集),与相互比较,最接近为(为公式4),如此得到得分最高的类别即为预测类别。
文章中方法的讲述部分
4.1基于聚类的目标搜索器(COS)融合采样训练
由于对比学习在区分前景目标方面比较好,我们利用对比学习在训练前提取前景目标。第一步是使用Exemplar[68]在训练集上预训练主干。然后使用基于聚类的算法提取由预训练模型识别的“对象”。其基本思想是,通过对比学习模型提取的一类图像中前景目标的特征是相似的,因此可以通过聚类算法进行识别;请看图3中的一个简单的例子。中第类中的所有图像形成一个集合
。
为了清楚起见,我们在下面的描述中省略了类索引。在某一类中寻找前景目标的具体方案如下:
1)对每张图像,随机裁剪L次,得到L个图像patch。然后将每个图像patch
经过预训练模型,得到归一化特征向量。
2)对该类的所有特征向量运行聚类算法A,得到H个聚类,其中
为第j个聚类的特征质心。
3)我们说一个像,即为存在,其中。设
为该类中属于的图像的比例。如果很小,则聚类不能代表整个类,可能是背景。因此我们去掉所有的聚类,其中是控制聚类一般性的阈值。剩下的h个聚类
表示我们正在寻找的类的“对象”。
4)将图像patch的前景分数定义为,其中
用于将分数归一化为[0,1]。然后得到每张图像
的top-k分数为。将对应的视为图像中前景目标的可能作物,前景评分作为置信度。然后,我们将其作为先验知识来纠正FSL模型背景的快速学习。
训练策略类似于前面介绍的融合采样。对于图像,我们选择原始版本的概率为
,从top-k个patch中选择的概率为。然后对所选图像进行调整,使最小面积占原始图像的比例保持不变。我们使用该策略使用FSL算法来训练骨干。
4.2基于共享对象集中器(SOC)的少镜头评估
如前所述,如果在评估时使用图像的前景裁剪,FSL模型的性能将得到很大的提升,作为模型性能的上界。
为了接近这个上限,我们提出了SOC算法,通过在同类支持图像和查询图像之间寻找共享内容来捕获前景目标。
步骤1:在每个类中搜索共享内容。
对于支持集中c类中的每张图像,我们随机裁剪V次,得到相应的候选图像
。每个分别发送到学习主干,得到归一化特征向量
。因此,我们在c类中总共有K × V个特征向量。
我们的目标是得到一个特征向量包含c类中所有图像的最大共享信息。理想情况下,表示最相似的K个图像块的质心,每个图像块来自一个图像,可表示为
式中cos(·,·)表示余弦相似度,表示以[K]为定义域,以[V]为值域的函数集。而可以通过枚举图像patch的所有可能组合得到,该蛮力方法的计算复杂度为,即当V或K很大时,计算是禁止的。因此,当计算负担不起时,我们转而使用一种利用迭代优化的简化方法。而不是寻找最近的图像补丁,我们直接优化ω1,使每个图像到补丁的最小距离之和最小,即:
这可以通过迭代优化算法来实现。我们在实验中应用了SGD。优化后,我们去除每张图像中与ω1最相似的patch,得到K × (V−1)个特征向量。然后我们重复执行上述优化过程,直到没有特征留下,如图4所示。我们最终得到V个经过排序的特征向量
,用来表示类c。对于shot K =1的情况,类内部没有共享的图像间信息,因此与PN和DeepEMD[63]中的处理类似,我们直接跳过第1步,使用原来的V个特征向量。
步骤2:查询图像聚焦前景目标的特征匹配。
一旦确定了前景类表示,下一步就是使用它们通过特征匹配来隐式地关注查询图像的前景。对于查询集中的每张图像x,我们也随机裁剪V次,得到V个候选特征。对于每个c类,我们有V个经过排序的代表性特征向量,这些特征向量是在步骤1中得到的。然后我们匹配查询特征和类特征之间最相似的patch,即
其中是一个重要因子。
因此,权重在指标n−1中呈指数降低,表明每个表示前景的向量的可信度降低。类似地,删除两个匹配的特征,重复上述过程,直到不留下任何特征。最后是x w.r.t.的分数。
c类是所有相似度的加权和,即,其中是控制每个作物是前景目标的另一个重要因素。通过这种方式,更早匹配的特征——因此更有可能成为前景——将对得分有更高的贡献。x的预测类别是得分最高的类别。
附录B对比学习
对比学习倾向于将同一图像的转换视图之间的一致性最大化,而将不同图像的转换视图之间的一致性最小化。令是一个输出特征空间的卷积神经网络。一个图像x的两个增广图像补丁通过
进行映射,生成一个查询特征q和一个关键特征k。此外,使用其他图像的补丁生成一个包含数千个负特征的队列。
该队列既可以使用当前批处理中的所有图像在线生成[1],也可以使用最近几个epoch的存储特征离线生成[4]。给定q,对比学习的目标是识别数千个特征中的k,可以表示为:
式中为温度参数,相似性度量。在Exemplar[5]中,为了“在弱利用标签信息的同时保留每个正实例的唯一信息”,将中与属于同一类的所有样本都剔除。