【视频异常检测】Delving into CLIP latent space for Video Anomaly Recognition 论文阅读

Delving into CLIP latent space for Video Anomaly Recognition 论文阅读

  • ABSTRACT
  • 1. Introduction
  • 2. Related Works
  • 3. Proposed approach
    • 3.1. Selector model
    • 3.2. Temporal Model
    • 3.3. Predictions Aggregation
    • 3.4. Training
  • 4. Experiments
    • 4.1. Experiment Setup
    • 4.2. Evaluation Against Baselines
  • 5. Conclusions

中文题目:视频异常识别的CLIP潜在空间研究
文章信息:

在这里插入图片描述
原文链接:https://arxiv.org/abs/2310.02835
源代码:https://github.com/luca-zanella-dvl/AnomalyCLIP

ABSTRACT

我们介绍了一种新的方法AnomalyCLIP,它首次将大型语言和视觉(LLV)模型(如CLIP)与多实例学习相结合,用于联合视频异常检测和分类。我们的方法特别涉及操纵潜在的CLIP特征空间来识别正常事件子空间,这反过来又使我们能够有效地学习异常事件的文本驱动方向。当异常帧被投影到这些方向上时,如果它们属于特定的类别,它们就会表现出大的特征量。我们还引入了一种计算高效的Transformer架构来对帧之间的短期和长期时间相关性进行建模,最终产生最终的异常分数和类预测概率。我们将AnomalyCLIP与考虑三个主要异常检测基准(即ShanghaiTech、UCF Crime和XD Violence)的最先进方法进行了比较,并从经验上表明,它在识别视频异常方面优于基线。项目网站和代码可在https://luca-zanella-dvl.github.io/AnomalyCLIP/。

1. Introduction

视频异常检测(VAD)是自动识别视频中偏离正常模式的活动的任务(Suarez和Naval Jr,2020)。VAD已经被计算机视觉和多媒体社区广泛研究(Bao等,2022;Feng等,2021b;Mei和Zhang,2017;Nayak等,2021;Sun等,2022;Wang等,2020;Xu等,2019),用于多个重要应用,例如监控(Sultani等,2018)和工业监测(Roth等,2022)。

VAD(视频异常检测)具有挑战性,因为数据通常呈高度不平衡状态,即正常事件很多,而异常事件则是罕见且零星的。VAD可以被视为一种基于分布外检测问题,即单类别分类(OOC)(Liu等,2021;Lv等,2021;Park等,2020;Xu等,2019):只有对应于正常状态的视觉数据被用作训练数据,并且基于输入测试视频与学习到的正常状态的偏差,将其分类为正常或异常。然而,在正常活动多样的复杂真实世界应用中,OOC方法可能特别无效。一个不常见的正常活动可能会造成误报,因为它与学习到的正常活动不同。另外,VAD也可以采用基于帧级注释的全监督方法(Bai等,2019;Wang等,2019)。尽管它们具有良好的性能,但因为注释的成本较高而被认为不切实际。无监督方法也可以使用,但它们在复杂环境中的性能尚不令人满意(Zaheer等,2022)。基于这些原因,最近的方法被设计用于弱监督学习场景(Li等,2022a;Sultani等,2018;Tian等,2021;Wu和Liu,2021):它们利用视频级别的监督。

尽管现有的弱监督VAD方法已经显示出在异常检测方面是有效的(Li等,2022a),但它们并不是设计用于识别异常类型(例如,射击 vs. 爆炸)。除了进行VAD(视频异常检测)之外,执行视频异常识别(VAR),即不仅检测异常事件,而且识别其中的基础活动,是可取的,因为它提供了更多信息丰富且可操作的见解。然而,在弱监督设置下解决VAR是非常具有挑战性的,这是由于极端的数据不平衡和每种异常样本的数量有限(Sultani等,2018)。

最近,我们经历了强大的深度学习模型的出现,这些模型是在大规模网络数据集上训练的(Schuhmann等,2021)。这些模型通常被称为大型语言和视觉(LLV)模型或基础模型(Radford等,2021;Singh等,2022),它们在多个下游任务中表现出强大的泛化能力,并成为现代计算机视觉和多媒体系统的关键组成部分。这些预训练模型是公开可用的,并且可以无缝地集成到任何识别系统中。LLV模型也可以有效地应用于视频和监督动作识别任务(Wang等,2021;Xu等,2021)。

在本文中,我们介绍了第一种使用LLV模型共同解决VAD和VAR的方法。我们认为,通过利用从LLV模型中得出的表示,我们可以获得更具有区分性的特征,用于识别和分类异常行为。然而,正如我们的实验所支持的(图1所示),对VAR-VAD的现有LLV模型的简单应用并不足以应对训练数据的不平衡以及同一视频中包含和不包含异常内容的帧之间的细微差异。

因此,我们提出了AnomalyCLIP,这是一种基于CLIP模型的VAR新解决方案(Radford et al.,2021),实现了最先进的异常识别性能,如图.1所示。

在这里插入图片描述

图1:在上海科技(ShanghaiTech)、UCF-Crime和XD-Violence数据集上,比较各种异常识别方法在接收者操作特征曲线(ROC)的平均曲线下面积(mAUC)和精确率-召回率曲线(PRC)的平均平均精度(mAP)方面的表现。其中,mAUC和mAP分别计算所有异常类别的二进制AUC ROC和AP PRC值的平均值。对于视频异常识别来说,更高的mAUC和mAP至关重要,因为它们反映了模型正确识别正确异常类别的能力。值得注意的是,我们提出的方法,AnomalyCLIP,在所有数据集上均实现了最佳性能,超过了被重新用于异常识别的视频异常检测的最先进方法以及基于CLIP的视频动作识别方法。

AnomalyCLIP生成的视频表示可以映射到异常事件的文本描述。我们并非直接在CLIP特征空间上操作,而是将其重新聚焦到一个正常性原型周围,如图2(a)所示。通过这种方式,空间具有重要的语义:特征的大小表示异常程度,而从原点到方向表示异常类型。为了学习代表所需异常类别的方向,我们提出了一个选择器模型,该模型采用提示学习和适合我们新空间的投影运算符,以识别视频中更好地匹配异常文本描述的部分。这种能力对解决数据不平衡问题至关重要。我们使用选择器模型的预测来实现一种语义导向的多实例学习(MIL)策略,旨在扩大异常视频中最异常段与正常视频之间的差距。与通常使用具有时间感知的主干网络提取的特征不同(Carreira和Zisserman,2017;Liu等,2022),CLIP视觉特征在操作时不具有任何时间语义,因为它是在图像级别上进行的。因此,我们提出了一个时间模型,实现为Axial Transformer(Ho等,2019),它模拟了连续帧之间的短期关系和视频部分之间的长期依赖关系。

如图1所示,我们在ShanghaiTech(Liu et al.,2018)、UCF Crime(Sultani et al.,2019)和XD Violence(Wu et al.,2020)三个基准数据集上评估了所提出的方法,并实证表明我们的方法在VAR中实现了最先进的性能。

我们的论文贡献总结如下:

  • 我们提出了第一种基于LLV模型的VAR方法来检测和分类异常事件的类型;
  • 我们介绍了一种由正常性原型驱动的LLV模型特征空间的转换,以有效地学习异常类型的提示方向。
  • 我们提出了一种新颖的选择器模型,它利用转换后的LLV特征空间中蕴含的语义信息作为执行多实例学习(MIL)段选择和异常识别的稳健方法。
  • 我们设计了一个时间模型,以更好地聚合时间信息,通过对相邻帧之间的短期关系和片段之间的长期依赖关系进行建模。

2. Related Works

Video Anomaly Detection.在视频监控流中识别异常行为是计算机视觉和多媒体分析中的传统任务。现有的VAD方法根据训练过程中可用的监督级别可分为四大类。第一类包括完全监督方法,假设训练集中具有可用的帧级别注释(Bai等,2019;Wang等,2019)。第二类包括弱监督方法,只需要视频级别的正常/异常注释(Li等,2022a,b;Sultani等,2018;Tian等,2021;Wu和Liu,2021)。第三类包括单类别分类方法,假设只有正常的训练数据可用(Liu等,2021;Lv等,2021;Park等,2020)。第四类包括无监督模型,不使用训练数据注释(Narasimhan,2018;Zaheer等,2022)。

在这些方法中,弱监督方法获得了更高的流行度,因为它们通常能够产生良好的结果,同时限制了注释的工作量。Sultani等人(2018)首次将弱监督VAD表述为多实例学习(MIL)任务,将每个视频分割成短段,形成一个被称为"bag"的集合。从异常视频生成的袋被称为正样本,而从正常视频生成的袋则被称为负样本。自从这项开创性工作以来,MIL已成为VAD的一种范式,并且许多后续工作提出了对相关排名模型的改进,以更可靠地预测异常分数。例如,Tian等人(2021)提出了一种鲁棒的时间特征幅度(RTFM)损失,应用于由扩张卷积金字塔和自注意力机制组成的深度网络,以模拟时间上紧邻的视频片段和整个视频中事件之间的短期和长期关系。Wu等人(2022)引入了自监督稀疏表示学习,这是一种将基于字典的表示与自监督学习技术相结合的方法,用于识别异常事件。陈等人(2022)引入了幅度对比注视和聚焦网络,这是一种使用特征放大机制和幅度对比损失来增强异常特征识别重要性的神经网络。由于异常可能在视频的任何位置和任何尺度发生,李等人(2022a)提出了一种称为尺度感知时空关系学习(SSRL)的方法,扩展了RTFM,不仅学习短期和长期的时间关系,还学习多尺度区域感知特征。虽然SSRL在常见的VAD基准测试中取得了最先进的结果,但其高计算复杂度限制了其适用性。据我们所知,以前的研究尚未探索基础模型(Radford等,2021)用于VAD,这是我们在本文中提出的。

Large Language and Vision models.新型大型多模态神经网络的出现(Radford等,2021;Schuhmann等,2021, 2022;Singh等,2022)使得在多个图像和视频理解任务中实现了前所未有的结果。当前的LLV模型采用特定于模态的编码器,并通过对比技术进行训练,以使不同模态的数据表示对齐(Jia等,2021;Radford等,2021)。尽管这些方法很简单,但已经显示出了令人印象深刻的零样本泛化能力。尽管早期的方法如CLIP(Radford等,2021)是针对图像的,但LLV模型最近已经成功地扩展到了视频领域。VideoCLIP(Xu等,2021)就是一个例子,它旨在通过对比临时重叠的视频文本对与挖掘的难例进行对比,来对齐视频和文本表示。VideoCLIP在几个视频理解任务中能够取得强大的零样本性能。ActionCLIP(Wang等,2021)将动作识别建模为一个视频文本匹配问题,而不是传统的1对N多数投票任务。与我们类似,他们的方法利用了CLIP的特征空间来学习视频的语义感知表示。然而,直接利用CLIP特征空间在捕捉异常事件信息方面存在失败,需要在此工作中提出的特定适应性。此外,动作识别方法在弱监督VAD任务中通常表现不佳,这是由于正常和异常事件之间的数据不平衡,以及在测试时尽管仅有视频级别的监督,但仍需要帧级别的评估。据我们所知,以前的工作尚未专门利用LLV模型来解决VAD问题。

3. Proposed approach

弱监督视频异常检测(VAD)是学习将视频中的每一帧分类为正常或异常的任务,使用的数据集是以元组形式 ( V , y ) (\pmb{V},y) Vy表示,其中 V \pmb{V} V是视频,y是一个二进制标签,指示视频中是否包含任何帧的异常。在异常识别中(VAR),我们引入了额外的任务,即在每个帧中识别检测到的异常的类型。因此,VAR考虑了元组 ( V , c ) (\pmb{V},c) Vc的数据集,其中 c c c表示视频中异常的类型( c = ∅ c = ∅ c=表示没有异常,因此为正常)。为了解决VAD中的视频级别监督和正常视频与异常视频之间的不平衡问题,广泛使用了多实例学习(MIL)框架(Sultani等,2018)。MIL将每个视频建模为一组段落 V = [ S 1 , . . . , S S ] ∈ R S × F × D V = [S_1,...,S_S] ∈ \mathbb{R}^{S×F×D} V=[S1...SS]RS×F×D,其中S是段落的数量,F是每个段落中的帧数, D D D是每个帧关联的特征数量。每个段落可以看作是 S = [ x 1 , . . . , x F ] ∈ R F × D S = [x_1,...,x_F] ∈ \mathbb{R}^{F×D} S=[x1...xF]RF×D,其中 x ∈ R D x ∈ \mathbb{R}^D xRD是每个帧对应的特征。MIL计算每个帧被判断为异常的可能性,基于此选择最异常的帧,并最大化正常帧和被选为最异常的帧之间预测可能性的差异。

在本文中,我们建议利用CLIP模型(Radford et al.,2021)来解决VAR问题,并表明:

i) CLIP特征空间中视觉和文本模态之间的对齐可以用作异常的有效似然估计器;

ii) 这种估计器不仅可以检测异常事件,还可以确定它们的类型;

iii) 这种估计器仅在采用我们提出的CLIP空间重新聚焦转换时才有效(见图2(a))。

我们的方法由两个模型组成,如图2(b)所示:选择器模型时间模型

选择器模型S生成每个帧属于异常类别的概率 S ( x ) ∈ R C S(x) ∈ \mathbb{R}^C S(x)RC,其中C是异常类别的数量。我们利用CLIP特征空间中的视觉-文本对齐和CoOp提示学习方法(Zhou等,2022)来估计这个概率。

时间模型T为视频的每个帧分配一个二元概率,指示帧是异常还是正常。与S不同,T利用时间信息来改善预测,并且我们使用Transformer网络(Ho等,2019)来实现它。

S和T的预测结果然后被聚合起来产生一个分布,指示每个帧是正常还是异常,以及它属于哪个异常类别。我们使用MIL和正则化损失的组合来训练我们的模型。重要的是,由于T是随机初始化的,概率得分不太可靠,因此我们始终使用S生成的概率来在MIL中执行段选择。

在这里插入图片描述
图2:(b) 我们提出的框架示意图。Selector模型使用CoOp (Zhou等,2022)学习方向d,并使用它们来识别每个特征x代表相应异常类别的可能性。通过考虑沿着相应方向的可能性分布,对前K个和后K个异常片段进行MIL选择。一个Temporal模型对特征进行时间聚合以生成最终的预测。

我们在第3.1节和第3.2节中详细描述了所提出的选择器模型和时间模型。在第3.3节中,我们展示了如何聚合两个模型的预测来估计最终的概率分布。最后,在第3.4节中,我们描述了训练和推断过程。

3.1. Selector model

对于VAD和VAR来说,在仅有视频级别的弱监督下,可靠地区分异常视频中的异常帧和正常帧至关重要。受近期LLV模型应用于视频动作识别任务的发现(Wang等,2021;Xu等,2021)的启发,我们提出了一种新颖的似然估计器,由我们的选择器模型封装,它结合了CLIP(Radford等,2021)特征空间和CoOp(Zhou等,2022)提示学习方法,在这个空间中学习一组方向,以识别每种类型的异常及其概率。

我们的主要直觉(见图2(a))是,CLIP特征空间呈现出一个潜在的结构,其中数据集中每帧提取的CLIP特征形成了一个围绕一个中心点聚集的空间,我们称之为正常性原型。因此,特征与正常原型之间的差异决定了重要特征:距离的大小反映了其异常性的可能性,而其方向则表示异常的类型。这样的重要特征不会通过对VAR的CLIP特征空间的简单应用而被利用(见表9)。释放这个空间在检测异常方面的潜力因此需要进行重新聚焦的转换,这是本文的一个主要贡献。

图2:(a) CLIP空间的示意图以及围绕正常性原型m进行重新中心化转换对正常特征的影响。当空间未围绕正常性原型m重新中心化时,方向d'相似,使得难以区分异常类型,并且特征的幅度与异常程度没有关联,使得难以识别异常事件。当重新中心化时,对每个方向投影的特征幅度的分布识别了相应类型的检测到的异常程度。
图2:(a) CLIP空间的示意图以及围绕正常性原型m进行重新中心化转换对正常特征的影响。当空间未围绕正常性原型m重新中心化时,方向d’相似,使得难以区分异常类型,并且特征的幅度与异常程度没有关联,使得难以识别异常事件。当重新中心化时,对每个方向投影的特征幅度的分布识别了相应类型的检测到的异常程度。

根据这一直觉,我们将正常原型 m m m 定义为 CLIP 图像编码器 E l \mathcal{E}_{l} El 提取的所有标记为正常的视频中包含的所有 N N N 帧图像的平均特征:

在这里插入图片描述

对于数据集中的每一帧图像 I \pmb{I} I,我们通过将正常性原型从 CLIP 编码特征中减去来产生帧特征 x x x,即 x = E l ( I ) − m x = \mathcal{E}_{l}(I) − m x=El(I)m

然后,我们利用视觉-文本对齐的CLIP特征空间,并学习文本提示嵌入,其方向用于指示异常类别。具体来说,我们采用了提示学习的CoOp方法(Zhou等,2022),我们发现这种方法是理想的,可以通过我们的实验进行经验验证(见第4.3节)。

给定一个类别 c c c 和相应标签 t c t^c tc 的文本描述,表达为一系列标记嵌入,我们考虑一系列可学习的上下文向量 t c t x t^{ctx} tctx,并推导出该类别的相应方向 d c ∈ R D \pmb{d}_c ∈ \mathbb{R}^D dcRD,如下所示:
在这里插入图片描述
这里的 E T \mathcal{E}_T ET表示 CLIP 文本编码器。文本描述的使用作为学习方向与相应异常类型匹配的先验知识,而上下文向量在训练过程中作为 S S S 的参数的一部分进行联合优化,以便使方向得以细化。每个类别都学习了不同的方向。

学习到的方向作为我们选择器模型 S S S 的基础。如图2(b)所示,帧特征 x x x 在方向 d c \pmb{d}_c dc 上的投影的大小表示异常类别 c c c 的可能性:
在这里插入图片描述
这里的 P \mathcal{P} P 表示我们的投影操作。然而,简单地将特征向量投影到方向上会使投影的大小受到比例的影响,其中一个类别的异常特征可能与另一个异常类别的特征具有不同的大小。为了缓解这个问题,我们在投影之后执行批量归一化(Ioffe和Szegedy,2015),这会产生一个具有零均值和单位方差的投影特征分布:

在这里插入图片描述

3.2. Temporal Model

选择器模型仅学习了异常帧和正常帧之间的初始时间无关分离,因为CLIP模型在图像帧级别上操作。然而,时间信息对于VAR是一项重要的信息,我们可以利用它。因此,我们提出了时间模型 T \mathcal{T} T来模拟帧之间的短期和长期关系,丰富视觉特征并产生预测,指示帧是否异常的可能性:

在这里插入图片描述

我们使用Transformer架构来捕捉段内帧之间的短期时间依赖关系,以及视频中所有段之间的长期时间依赖关系,这是受到其在相关序列建模任务中取得成功的启发(Vaswani等,2017)。由于 V \pmb{V} V所有视频段的输入都会接收到,因此大量的段数 S 和帧数 F 增加了自注意力计算的计算需求。为了降低这个成本,我们将 T \mathcal{T} T实现为轴向变换器(Axial Transformer)(Ho等,2019),它分别为对应于段和每个段中的特征的两个轴计算注意力。正如第4.3节的实验所建议的,与标准Transformer相比,轴向变换器也不太容易过拟合,这在VAR中是可能的情况。我们以Sigmoid激活结束模型,以便输出的概率也可以解释为概率。

3.3. Predictions Aggregation

我们将 S \mathcal{S} S T \mathcal{T} T的预测组合起来得到最终输出:指示帧是否正常或异常的概率( p N ( x ) p_N(\pmb{x}) pN(x) p A ( x ) p_A(\pmb{x}) pA(x)),以及帧呈现某种类别异常的概率( p A , c ( x ) p_{A,c}(\pmb{x}) pA,c(x))。

给定一个输入帧特征 x \pmb{x} x,我们将其作为异常的概率 p A ( x ) p_A(\pmb{x}) pA(x) 定义为其来自时间模型 T 的对应输出。帧为正常的概率为 p N ( x ) = 1 − p A ( x ) p_N(\pmb{x}) = 1 − p_A(x) pN(x)=1pA(x)。为了获取帧呈现特定类别异常的概率分布 p A , c ( x ) p_{A,c}(\pmb{x}) pA,c(x),我们使用选择器模型的预测,可以看作是对异常类别的条件分布 p c ∣ A ( x ) = s o f t m a x ( S ( x ) ) p_{c|A}(\pmb{x}) = softmax(S(\pmb{x})) pcA(x)=softmax(S(x))。根据条件概率的定义,可以得到 p A , c ( x ) = p A ( x ) ∗ p c ∣ A ( x ) p_{A,c}(\pmb{x}) = p_A(\pmb{x}) * p_{c|A}(\pmb{x}) pA,c(x)=pA(x)pcA(x)

3.4. Training

我们按照MIL框架来训练模型。具体来说,MIL考虑一个批次,其中包含相同数量的正常视频和异常视频,使用预测的可能性来识别异常视频中最异常的前K个段,并使其与其他正常段分离(Sultani等,2018)。由于相对于S,T的容量较大且初始随机初始化,T无法直接执行此选择,因为预测的可能性会过于嘈杂。相反,我们使用来自S的可能性预测来执行MIL段选择。

我们的框架使用异常视频的损失、正常视频的损失和正则化损失进行端到端的训练,我们将在下文中描述。

给定一个类别为 c c c 的异常视频 V \pmb{V} V,我们根据帧级模型 S 在与类别 c c c 相对应的方向上分配的可能性,定义了最异常的前 K K K 个段的集合 V + = { S 1 + , . . . , S K + } \mathcal{V}^+ = \{S^+_1 , ..., S^+_K\} V+={S1+,...,SK+},并且对称地,定义了最不异常的前 K K K 个段的集合 V − = { S 1 − , . . . , S K − } \mathcal{V}^− = \{S^−_1 , ..., S^−_K\} V={S1,...,SK}。我们考虑 V + \mathcal{V}^+ V+ 中的所有帧,并通过最小化损失 L A D I R \mathcal{L}^{DIR}_A LADIR来最大化 S 预测的对应类别的可能性。
在这里插入图片描述
在这里,可能性张量是使用类别 c c c 进行索引的。为了为时间模型提供梯度,我们还使用交叉熵最大化了每个段中包含的帧的 p A , c ( x ) p_{A,c}(\pmb{x}) pA,c(x)
在这里插入图片描述
在异常视频中区分正常帧和异常帧是VAR中的一个具有挑战性的问题,这是因为同一视频中的帧之间存在外观相似性。为了促进这些帧之间的更好区分,我们额外考虑了 V − \mathcal{V}^− V,并且对于每个段中的帧,使用交叉熵最大化 p N ( x ) p_N(\pmb{x}) pN(x)
在这里插入图片描述

为了利用正常视频中的信息,对于正常视频 V V V 中的每个段 S i S_i Si,我们最小化选择器模型预测的可能性:
在这里插入图片描述
遵循VAD文献(Feng等,2021a;Sultani等,2018;Tian等,2021),我们还要求模型最大化其最异常段 V + = { S 1 + , . . . , S K + } \mathcal{V}^+ = \{S^+_1 , ..., S^+_K\} V+={S1+,...,SK+} 中每帧的正常概率:
在这里插入图片描述
我们通过两个额外的损失(Sultani等,2018)对异常视频的所有帧进行正则化训练。其中一个是预测分数的稀疏性损失,鼓励尽可能少的帧被预测为异常:
在这里插入图片描述
另一个是一个平滑性项,它在时间维度上对预测进行正则化:
在这里插入图片描述
其中,索引操作是在视频中帧的扁平序列上执行的。
我们同时训练选择器和时间模型,将最终的训练目标定义为:
在这里插入图片描述

4. Experiments

在本节中,我们针对一系列来自最先进的视频异常检测(VAD)和动作识别方法的基线方法进行了验证,并将其调整为视频异常识别(VAR)任务。在介绍了用于新颖的VAR任务的度量标准后,我们在三个数据集上进行评估,并在VAD和VAR任务中进行比较。我们进行了广泛的消融研究,以证明我们的主要设计选择的合理性。第4.1节描述了我们的实验设置,涉及数据集和评估协议。然后,在第4.2节中,我们对比了最先进方法的结果,并在第4.3节中进行了消融研究并进行了讨论。

4.1. Experiment Setup

Datasets.我们使用三个广泛使用的VAD数据集进行研究,即上海科技(Liu等,2018)、UCF-Crime(Sultani等,2018)和XD-Violence(Wu等,2020)。上海科技包含437个视频,从大学校园的多个监控摄像头录制而成。共捕获了17种异常类别的130个异常事件,分布在13个不同的场景中。我们采用了Zhong等人(2019)的配置,将其调整为弱监督设置,将其组织成238个训练视频和199个测试视频。UCF-Crime是一个大规模的真实监控视频数据集,包含1900个长时间未经修剪的视频,涵盖了对公共安全产生重大影响的13种真实世界异常情况。训练集包含800个正常视频和810个异常视频,测试集包含剩余的150个正常视频和140个异常视频。XD-Violence是一个大规模暴力检测数据集,包含4754个带有音频信号和弱标签的未经修剪视频,分为3954个训练视频和800个测试视频。总时长为217小时,该数据集涵盖了各种场景,并捕获了6种异常类别。值得注意的是,每个暴力视频可能具有多个标签,范围从1到3。为适应我们的训练设置,其中每个视频仅考虑一个异常类型,我们选择了包含最多一个异常的4463个视频的子集。

Performance Metrics.我们在VAD和VAR方面进行评估。与先前的工作一样,我们使用帧级接收器操作特性(ROC)曲线下面积(AUC)来衡量VAD的性能,因为它对于检测任务不考虑阈值。较大的帧级AUC意味着在分类正常和异常事件方面性能更好。为了衡量VAR性能,我们将AUC指标扩展到多分类情景。对于每个异常类别,我们通过将该类别的异常帧视为正例,将所有其他帧视为负例来衡量AUC。随后,计算所有异常类别上的平均AUC(mAUC)。同样,对于XD-Violence数据集,我们遵循已建立的评估协议(Wu等,2020),并使用精度-召回曲线(PRC)的平均精度(AP)来展示VAD结果,而对于VAR结果,我们报告平均AP(mAP),它通过对所有异常类别的二进制AP值进行平均计算得到。

Implementation details.在训练时,每个视频被划分为S个不重叠的块。从每个块中,随机选择一个起始索引,从这个起始索引开始考虑连续的F帧片段。如果原始视频的长度小于S×F,我们采用循环填充,从起始位置重复视频直到达到S×F的最小长度。用于训练的每个大小为B的小批次由B/2个正常片段和B/2个异常片段组成。这是一种简单但有效的平衡小批次形成的方法,否则小批次将主要包含正常片段。在推断时,为了处理涵盖任意时间窗口的视频,我们首先将每个视频V划分为S个不重叠的块,其中每个块包含帧数是F的倍数,即J×F,其中J取决于V⋄的长度。我们使用J次推断来对视频中的所有帧进行分类。在每次第j次推断中,我们从每个块中提取第j个连续的F帧,形成总共S×F跨越整个视频的片段。然后,我们将这些片段馈送到我们的方法中,以便我们的Temporal模型可以推断片段之间的长期时间关系。

为了与先前的VAD工作(Tian等,2021;Wu等,2022;Li等,2022a)进行公平比较,我们在MIL选择前K个和后K个异常片段时使用K = 3,每个视频被划分为S = 32个片段,每个片段有F = 16帧,批次大小为B = 64。更多的实现细节请参考附录A,超参数的更多细节请参考附录B。

4.2. Evaluation Against Baselines

关于VAD,我们将AnomalyCLIP与不同监督设置的最先进方法进行比较,包括单类(Park等,2020;刘等,2021;吕等,2021)、无监督(Zaheer等,2022)和弱监督(李等,2022a;田等,2021;吴等,2022)。由于上述方法中没有一个涉及VAR任务,我们通过重新利用一些性能最佳的VAD方法来生成基线,包括RTFM(田等,2021)、S3R(吴等,2022)和SSRL(李等,2022a),以及基于CLIP的基线(Radford等,2021;王等,2021):

  • 使用RTFM(田等,2021)、S3R(吴等,2022)和SSRL(李等,2022a)进行多分类(弱监督)。我们保持原始的预训练模型冻结,并添加一个多分类头,我们训练它使用交叉熵目标来预测类别,这些类别是通过在原始方法中选择的前K个最异常片段进行选择的。这些基线是弱监督的。
  • CLIP(Radford等,2021)(零样本)。我们通过使用预训练的CLIP模型将输入帧特征x与文本提示“来自{类别}的CCTV摄像头的视频”的嵌入向量进行余弦相似度的软最大化来进行分类。
  • ActionCLIP(王等,2021)(弱监督)。我们通过将视频级别的异常标签传播到相应视频的每一帧上,重新在我们的数据集上对ActionCLIP进行训练。

在这里插入图片描述

表1展示了在上海科技数据集(Liu等,2018)上的结果。尽管上海科技数据集对于VAD来说已经相当饱和,因为它在场景方面相对简单,但AnomalyCLIP在VAD和VAR两方面都取得了最先进的结果,在AUC ROC和mAUC ROC方面分别增加了+0.09%和+2.85%。ActionCLIP(王等,2021)在mAUC方面表现不佳,我们将其归因于上海科技数据集中异常事件的低比例,这使得避免在异常视频的正常帧上出现错误的监督信号对MIL选择策略尤为重要。相反,我们的提议对异常视频的正例有更好的识别,因此即使异常很少时也能取得更好的性能。AnomalyCLIP在mAUC方面相对于零样本CLIP实现了大幅度的+45.44%的改进,这表明在CLIP空间中简单地应用VAR流水线并不能产生令人满意的结果。对于这个空间的修订,即我们提出的转换,是有效使用它的必要条件。

在这里插入图片描述

表2报告了在UCF-Crime数据集(Sultani等,2018)上的结果。我们的方法展现了对异常类别的最佳区分能力,在基线中实现了最高的mAUC ROC。与上海科技类似,我们的方法在mAUC方面也相对于零样本CLIP实现了改进,验证了我们对CLIP空间的提议调整的重要性。与ActionCLIP(王等,2021)相比,我们的AnomalyCLIP在mAUC方面取得了+2.94%的改进,突显了MIL框架在减轻异常视频的正常帧被错误赋予异常类别标签的需要。值得注意的是,ActionCLIP获得的较高mAUC并没有导致竞争力强的VAD AUC ROC,这意味着正常和异常帧之间的分离较差。与VAD中表现最佳的方法SSRL(李等,2022a)相比,我们的方法在VAR方面取得了+1.78%的mAUC改进,而在VAD方面稍差了-1.07%的AUC ROC。

在这里插入图片描述

表3显示了在XD-Violence数据集(吴等,2020)上的结果。AnomalyCLIP在VAR方面表现优异,达到了最高的mAP,并超过了其他最先进方法。与VAD基线模型相比,AnomalyCLIP优于RTFM(田等,2021),并展示了与S3R(吴等,2022)接近的性能。更多关于我们如何在XD-Violence数据集上获得结果的细节,请参考附录C。

在这里插入图片描述

表4、5和6显示了每个单独异常类别的多类AUC和AP。当应用于通常被认为是异常检测中复杂基准的UCF-Crime和XD-Violence数据集时,我们提出的方法具有明显优势。我们的方法在平均mAUC和mAP上取得了最佳表现,然而在处理展现出与正常模式轻微偏差的异常时,如UCF-Crime中的Shoplifting,我们的方法则不那么具有优势。当应用于上海科技数据集时,我们提出的方法的优势不太明显,因为该数据集捕获了大多数方法已经达到饱和性能的简单场景。

图3展示了我们提出的AnomalyCLIP在一组UCF-Crime、上海科技和XD-Violence测试视频中检测和识别异常的定性结果。该模型能够预测测试视频中异常的存在以及异常事件的类别。在UCF-Crime的Normal Video 246(第2行,第2列)中,可以看到一些帧具有比预期更高的异常概率。值得注意的是,在UCF-Crime的RoadAccidents133视频中(第1行,第2列),即使在事故发生后,异常分数仍然保持较高。另外,值得注意的是,对于正常视频,AnomalyCLIP能够在所有帧上获得相对较低的异常概率,这意味着我们的模型在正常视频中学习到了稳健的正常表示。更多关于测试视频的结果,请参考附录E。此外,为了更直观地理解论文中提出的结果,我们邀请读者访问网站https://lucazanella-dvl.github.io/AnomalyCLIP,那里提供了易于访问的定性结果。

5. Conclusions

在这项工作中,我们解决了视频异常识别这一挑战性任务,扩展了视频异常检测的范围,进一步要求对异常活动进行分类。我们提出了AnomalyCLIP,这是第一个在VAR环境中利用LLV模型的方法。我们的工作揭示了将现有的LLV模型(Radford等,2021;王等,2021)简单应用于VAR会导致性能不佳,并且我们证明了需要多项技术设计选择才能构建一个用于检测和分类异常行为的多模态深度网络。我们还进行了广泛的实验评估,展示了AnomalyCLIP在基准数据集上(上海科技(Liu等,2018)、UCF-Crime(Sultani等,2018)和XD-Violence(吴等,2020))取得了最先进的VAR结果。作为未来工作,我们计划将我们的方法扩展到开放式场景,以反映现实世界中常常没有预先定义的异常。我们还将研究我们的方法在其他多模态任务中的适用性,例如细粒度分类。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/761033.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

自然语言处理实战项目28-RoBERTa模型在BERT的基础上的改进与架构说明,RoBERTa模型的搭建

大家好,我是微学AI,今天给大家介绍下自然语言处理实战项目28-RoBERTa模型在BERT的基础上的改进与架构说明,RoBERTa模型的搭建。在BERT的基础上,RoBERTa进行了深度优化和改进,使其在多项NLP任务中取得了卓越的成绩。接下来,我们将详细了解RoBERTa的原理、架构以及它在BERT…

ensp不同vlan间的互相通信

关于不同vlan之间的通信,本章做了最简洁的案例,表示说明 1. 网段设置 1.1 划分四个不同 的 vlan vlan网段vlan10192.168.10.254 /24vlan20192.168.20.254 /24vlan30192.168.30.254 /24vlan40192.168.40.254 /24 1.2 SW1的配置 #进入视图 sys #更改交…

QT的学习

代码练习 做一个UI登录页面 源文件 #include "widget.h" #include "ui_widget.h"Widget::Widget(QWidget *parent): QWidget(parent), ui(new Ui::Widget) {ui->setupUi(this);this->setWindowTitle("洛克启动!");this->…

iOS报错-Command PhaseScriptExecution failed with a nonzero exit code

问题:iOS debug没问题,一打包就报错: Command PhaseScriptExecution failed with a nonzero exit code 解决方法如下: 在项目的Pods目录下,找到Targets Support Files->Pods-xxxx-frameworks.sh 如下&#xff1a…

全域电商数据实现高效稳定大批量采集♀

全域电商,是近几年的新趋势,几乎所有商家都在布局全域,追求全域增长。但商家发现,随着投入成本的上涨,利润却没有增加。 其中最为突出的是——商家为保证全域数据的及时更新,通过堆人头的方式完成每日取数任…

hcip复习总结1

OSI----------- 定义了数据的产生标准 。 7 层 应用 ------- 表示 会话 传输 -----Telnet - 23 ssh---22 http---80 https-443 TCP ---- 传输控制卋议。是一种面向连接的可靠的传输卋议。 UDP---- 用户数据报卋议。是一种非面向连接的丌可靠传输卋议。 保证可靠性&…

Windows系统搭建web网站并结合内网穿透实现公网访问本地站点

文章目录 使用工具1. 本地搭建web网站1.1 下载phpstudy后解压并安装1.2 打开默认站点,测试1.3 下载静态演示站点1.4 打开站点根目录1.5 复制演示站点到站网根目录1.6 在浏览器中,查看演示效果。 2. 将本地web网站发布到公网2.1 安装cpolar内网穿透2.2 映…

分享一个ChatGPT 3.5和4.0(国内可用)【2024年3月】

一、ChatGPT的应用: 随着更多人接触并使用GPT,大众普遍赞同了一点:ChatGPT实在是用户体验超棒! 现在大家认为最出色的版本无疑是3.5和4.0。通过使用他们,会清楚的发现: GPT-4.0在综合技能上的表现无疑更…

如何在CentOS7搭建DashDot服务器仪表盘并实现远程监控

文章目录 1. 本地环境检查1.1 安装docker1.2 下载Dashdot镜像 2. 部署DashDot应用3. 本地访问DashDot服务4. 安装cpolar内网穿透5. 固定DashDot公网地址 本篇文章我们将使用Docker在本地部署DashDot服务器仪表盘,并且结合cpolar内网穿透工具可以实现公网实时监测服务…

通过docker容器安装zabbix6.4.12图文详解(监控服务器docker容器)

目录 一、相关环境及镜像二、zabbix-server服务端部署1.使用docker创建zabbix-server服务端(1). 创建专用于Zabbix组件容器的网络(2). 启动空的MySQL服务器实例(3). 启动Zabbix Java网关实例(4). 启动Zabbix服务器实例并将实例与创建的MySQL服务器实例链接(5). 启动Zabbix Web界…

电磁兼容EMC:一文读懂TVS管选型设计

目录 1 TVS管外观结构 2 TVS管常见品牌 ​编辑3 TVS管命名规则 4 TVS管工作原理 5 TVS基本特点 6 TVS典型应用 7 TVS管电气参数说明 7.1 VRWM 截止电压,IR 漏电流 7.2 VBR 击穿电压 7.3 IPP 峰值脉冲电流,VC 钳位电压 8 TVS选型注意事项 8.1…

【Linux】深入了解Linux磁盘配额:限制用户磁盘空间的利器

🍎个人博客:个人主页 🏆个人专栏:Linux ⛳️ 功不唐捐,玉汝于成 前言 在多用户环境下管理磁盘空间是服务器管理中的一项重要任务。Linux提供了强大的磁盘配额功能,可以帮助管理员限制用户或组对文件系统…

【RAG实践】基于 LlamaIndex 和Qwen1.5搭建基于本地知识库的问答机器人

什么是RAG LLM会产生误导性的 “幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。 正是在这样的背景下,检索增强生成技术(Retrieval-Augmented G…

Transformer的前世今生 day06(Self-Attention和RNN、LSTM的区别

Self-Attention和RNN、LSTM的区别 RNN(循环神经网络) RNN,当前的输出 o t o_t ot​取决于上一个的输出 o t − 1 o_{t-1} ot−1​作为当前的输入 x t − 1 x_{t-1} xt−1​和当前状态下前一时间的隐变量 h t h_t ht​,隐变量和隐…

数据分析-Pandas多维数据平行坐标可视化

数据分析-Pandas多维数据平行坐标可视化 数据分析和处理中,难免会遇到各种数据,那么数据呈现怎样的规律呢?不管金融数据,风控数据,营销数据等等,莫不如此。如何通过图示展示数据的规律? 数据表…

蓝桥杯刷题(十三)

1.煤球数目 代码 cnt ans 0 start 1 a [] while cnt<100:ansstartstart 1t ansstartcnt1a.append(ans) print(sum(a))2.奖券数目 代码 def f(x)->bool:while x:if x%104:return Falsex//10return True ans 0 for i in range(10000,100000):if f(i):ans1 print(a…

26 OpenCV 查找边缘

文章目录 findContours 发现边缘drawContours 绘制边缘大致流程示例 findContours 发现边缘 cv::findContours( InputOutputArray binImg, // 输入图像&#xff0c;非0的像素被看成1,0的像素值保持不变&#xff0c;8-bitOutputArrayOfArrays contours,// 全部发现的轮廓对象…

libVLC 轨道信息

libVLC是一个流行的开源多媒体播放器框架&#xff0c;它提供了丰富的 API 用于开发视频播放相关的应用程序。获取轨道信息&#xff0c;是指获取当前媒体文件的音频、视频或字幕等轨道信息。 常见的视频文件一般都有音频和视频、特殊的会带有字幕文件。 媒体轨道信息结构存放在…

ARM/Linux嵌入式面经(八):OPPO三面

OPPO三面 一面(4.2,20min) # 1.自我介绍# 2.三个项目,问的很详细后面专门会出一版怎么做自我介绍,以及项目怎么写,会怎么问,你该怎么回答。 3.SPI是什么?有几条线?几种模式? SPI协议简介 板卡内不同芯片间通讯最常用的三种串行协议:UART、I2C、SPI,之前写过串口协…

国际数字影像产业园:专注于数字影像领域的成都数字产业园

国际数字影像产业园&#xff08;数媒大厦&#xff09;&#xff0c;作为一个专注于数字影像产业的成都数字产业园&#xff0c;其服务优势体现在三大生态服务体系&#xff1a;公共服务、公务服务、产业服务。这三大服务体系不仅共享化、数字化、产业化&#xff0c;更致力于为企业…