
作者:平凡的外卖小哥
全文5747字,预计阅读时间15分钟
1 简介
目前针对于图片的目标检测的方法大致分为两类:
faster R-CNN/R-FCN一类:
此类方法在进行bbox回归和分类之前,必须通过region proposal network(RPN)得到RoI,因此被称作是two-stage的方法。YOLO/SSD一类:
此类方法不需要RPN,直接在输入图片上进行bbox回归和分类,因此是一种one-stage的方法。
总的来说,第一种方法的准确率要比第二种方法要高,但是第二种方法的速度要快。在实际应用中,摄像头的数据以视频的方式产生。为了处理这些视频数据,目前普遍的做法是对每一帧进行目标检测和语意分割。然而,如图1所示,这样的处理方式有两种问题:1)帧与帧之间有大量的冗余计算,导致满足不了实时需求(fps>=15);2)由于移动目标存在失焦,遮挡等情况,导致目标在单帧上不能被检测到。为了解决这两个问题,在处理视频的时候需要利用帧与帧之间的上下文信息。因此,如何利用视频的时序信息来提高检测精度/速度,如何平衡accuracy speed tradeoff,是一个比较热门的研究方向。本文主要调研了使用光流来利用视频中时序信息的方法。

2 数据集
2.1 视频目标检测
从2015年起,ImageNet新增了视频目标检测的任务,object detection from video (VID)。其数据集标注了30类目标,是检测(DET)数据集200类的一个子集。训练集共有3862个视频片段,总帧数超过112万。性能衡量的metric是mean average precision(mAP)。

2.2 视频语义分割
目前比较流行的是Cityscape的数据集。每个视频片段包含30帧,但只有其中的第20帧有ground truth标注。标注包含了30个语义分类。使用的metric是mean intersection-over-union(mIOU)。

3 Optical flow(光流)
3.1 光流简介
光流常用于计算图像中各个位置的瞬时移位,是依据视频帧与帧之间的各像素相关性而计算得到的。输入时序相邻的两帧

3.2 FlowNet
传统计算光流的方法不在此赘述,可以参考其wikipedia页面。传统方法计算光流通常是在CPU上实现的,速度较慢。并且如果想在计算机视觉中应用光流的话,用传统方法不能够end-to-end训练网络。因此,FlowNet [1] 提出了用neural network来计算光流的方法。如下图所示,其输入是视频片段中的两帧,由于时间间隔较短,图片之间具有强相关性。输出是各个像素点的移位,通过移位,可以得知上一帧各目标在下一帧的位置。

FlowNet的网络结构和用于semantic segmentation的网络结构类似,由两部分构成。FlowNet将之称为contracting部分和refinement部分,分别用于downsampling提取特征和upsampling恢复分辨率,由conv和deconv操作实现。和semantic segmentation的输入是一张图片不同,此网络输入是两张图片。作者提出了两种方式来处理,不过在后续工作中用的比较多的方法是直接将两张图片堆在一起作为一个有3+3=6个channel的图片输入给网络。
4 基于光流的视频识别
通过光流,我们能够得知上一时刻的物体在下一时刻的位置,能否应用光流来更好地解决视频识别中的accuracy speed tradeoff呢?答案是肯定的。当前计算机视觉使用到的神经网络从功能上可以分为两部分:
也就是说,一个网络由多层的,提取特征的
在上一节中,我们得知能够通过光流得到上一时刻的物体在当前时刻的位置,即光流表达了在pixel space上的对应关系。那么光流在feature space上,是否也保持同样的对应关系呢?如果是的话,就可以不用重复计算每一帧的特征,而是将上一帧的特征传播到当前帧,从而大大减少计算量。如下图所示,当前帧通过ResNet-101得到的两个特征图(第二行),和通过光流将关键帧特征传播而得到的特征图(第三行)是非常相似的,因此可以假设是成立的,即可以通过光流来传播feature。

4.1 更快
为了提高处理视频的速度,首先将视频中的各帧分为关键帧和非关键帧,且关键帧的数量远远小于非关键帧。在目标检测时候,只需要对关键帧通过
其中,

DFF的计算量和传统对每帧进行特征提取的方法的计算量比值为:
上式中两个网络的复杂度可以根据它们的FLOPs来测量,下表列出了不同

假设每隔 l 帧选择一次关键帧,则DFF的整体加速为:
DFF和传统基于每帧的方法在CityScape和ImageNet VID的表现如下表。可以看到,DFF在精度损失小于1%的情况下,能够对语意分割和目标检测分别达到3.7和5倍的加速。

4.2 更准
如本文开头所述,由于视频中可能存在运动模糊,镜头失焦,遮挡等问题,导致在单帧上的目标检测失败。Flow-Guided Feature Aggregation (FGFA) [3] 提出了聚合相邻帧的特征来提升当前帧的检测效果的方法。其主要思想是,对当前帧进行目标检测的时候,
其中
是一个衡量传播特征和此帧特征相似度的系数。下图展示了FGFA的工作流程:

基于ResNet-101的FGFA在ImageNet VID上的表现如下表:

以上两小节分别讨论了如何利用光流提高视频目标检测的速度和精度,但是都不能在速度和精度上两全其美。实际上,同时提高速度和精度也是可能的。首先,Impression Network(ImpNet) [4] 提供了一种思路。其主要思路是:
FGFA在任意帧都聚合了其邻近的2K+1帧的传播特征,导致计算量增大。同时,因为相邻帧的差异往往很小,这样密集的计算的信息冗余度也很高。因此ImpNet只对关键帧进行特征聚合,而对非关键帧只计算由关键帧传播得到的特征。
FGFA需要考虑当前帧之前的K帧和之后的K帧的特征,而在实际应用场景中是没有当前帧之后的K帧的信息的。因此,ImpNet并不直接应用Eq. 1,而是使用它的递归形式来聚合关键帧之间的特征。
ImpNet通过对关键帧维持一个叫
通过以上方式,ImpNet不仅通过光流传播特征提高速度,也用多帧特征聚合提高了精度。其在ImageNet VID上的表现总结如下:

另一篇文章 [5] 提出了思路和ImpNet类似的方法,其主要特点是:
和ImpNet一样,在关键帧上以递归的方式进行特征聚合。
对非关键帧,使用空间适应(spatially-adaptive)的特征传播,保证了传播特征的质量,减少因为光流不准确带来的误差。具体实现是在FlowNet上增加了预测传播质量的输出,如果某位置上的传播质量高于一定的界限,则使用传播特征,否则使用自身的特征。
目前讨论的方法在选择关键帧的时候,都是单纯地每隔一定数量(通常为10)的帧就选择当前帧为关键帧。此方法提出了使用时间适应(temporally-adaptive)的关键帧选择策略。此策略也依赖于FlowNet的传播质量输出。如果关键帧到当前帧的传播质量小于一定界限的位置占比达到全部位置的一定比例的时候,则把当前帧设为关键帧:
此方法的示意如下图所示:

此方法在ImageNet VID数据集上的表现如下:

可以看到,此模型在保证速度的情况下,精度也达到最高,是后期工作的重点模型。
5 其他方法
目前在对视频的识别任务中,除了使用光流以外,还有一些其他有意思的方法。下面例举一二:
patially variant convolution [6].
此方法和本文所讲用光流进行特征传播不一样的是,它通过被称为Spatially variant convolution的操作来进行特征的传播。非关键帧上某一位置的特征是由关键帧上其邻近位置的特征的加权平均Tubelet proposal network [7].得到,且这些加权值由一个小型网络得到。同时,其关键帧选择也是通过一个小型网络动态确定,其网络输入为两帧的低层特征,输出为两帧的偏离值。如果偏离值高于一定界限,则将当前帧设为关键帧。此方法在Cityscape上语意分割的表现在精度和速度上均比DFF要好。Tubelet proposal network [7].
此方法首先生成某帧上的检测结果,然后用视觉跟踪得到bbox的tubelet proposals。对这些proposals进行重新打分后得到目标的bbox轨迹。此方法步骤太多,不能end-to-end training,不是特别看好。Spatio-temporal CNN (stf-CNN) [8].
此方法在传统FCN的基础上,在特征提取网络之后对特征图上的每一个位置增加了一个LSTM模块,从而让空间特征融合了时序信息变成空间-时序特征(故称spatio-temporal CNN)。此方法对精度有提升,但是因为对每一个位置都用LSTM,计算上开销很大。
总结光流对视频识别任务的帮助很大,特别是自从FlowNet提出后,将光流纳入整个神经网络的设计之中来进行end-to-end的训练,对视频识别任务的精度和速度都有显著提升。而且基于光流的方法对具体的识别任务不敏感,它在视频目标检测和视频语意分割上都能使用。因此,可以考虑将光流应用于目前使用的深度模型当中,来提高模型的性能。
参考文献
- FlowNet: Learning Optical Flow With Convolutional Networks
- Deep Feature Flow for Video Recognition
- Flow-Guided Feature Aggregation for Video Object Detection
- Impression Network for Video Object Detection
- Towards High Performance Video Object Detection
- Low-Latency Video Semantic Segmentation
- Object Detection from Video Tubelets with Convolutional Neural Networks
- STFCN: Spatio-Temporal FCN for Semantic Video Segmentation
感谢阅读
本文首发于微信公众号【美团无人配送】,欢迎大家搜索关注,微信后台回复"书单",给你一份美团技术团队书单合集
作者的其他文章:
美团无人配送:PointNet系列论文解读zhuanlan.zhihu.com