5 激光雷达点云检测模型
🦋🦋🦋CenterPoint是Anchor‐Free的3D物体检测器,以点云作为输入,将三维物体在Bird‐View下的中心点作为关键点,基于关键点检测的方式回归物体的尺寸、方向和速度。相比于Anchor‐Based的3D物体检测器,CenterPoint不需要人为设定Anchor尺寸,面向物体尺寸多样不一的场景时,其精度表现更高,且简易的模型设计使其在性能上也表现更加高效🦋🦋🦋。
💚论文题目:Center-based 3D Object Detection and Tracking(基于中心的3D物体检测和跟踪)
💜论文地址:https://arxiv.org/abs/2006.11275
💙代码地址:https://github.com/tianweiy/CenterPoint
【摘要】
3D物体在点云中通常表示为3D盒子。这种表示方法模仿了基于图像的2D边界框检测,但也带来了额外的挑战。3D世界中的物体并不遵循任何特定的方向,而基于框的检测器很难枚举所有方向或将轴对齐的包围框拟合到旋转的物体上。
💕💕💕在本文中,我们转而提出将3D物体表示、检测和跟踪为点。我们的框架CenterPoint首先使用关键点检测器检测物体的中心,然后回归到其他属性,包括3D大小、3D方向和速度。
🌸🌸🌸在第二阶段,它使用物体上的额外点特征来改进这些估计。在CenterPoint中,3D目标跟踪简化为贪婪的最近点对匹配。由此得到的检测与跟踪算法简单、高效、有效。
🦋🦋🦋CenterPoint在3D检测和跟踪的nuScenes基准上都取得了最先进的性能,单个模型的NDS和AMOTA分别为65.5和63.8。在Waymo公开数据集上,CenterPoint的表现大大超过了之前的所有单模型方法,并且在所有Lidar-only提交中排名第一。
下图1:我们提出了一个基于中心的框架来表示、检测和跟踪物体。
以前的基于锚点的方法使用轴对齐的锚点相对于自我车辆坐标。当车辆在直线道路上行驶时,基于锚点和我们的基于中心的方法都能够准确地检测出物体(顶部)。然而,在安全关键的左转(下转)期间,基于锚点的方法很难将轴对齐的边界框拟合到旋转的物体上。我们的基于中心的模型通过旋转不变的点精确地检测物体。
下图2:我们的Centerpoint框架概述。我们依赖一个标准的3D骨架,从Lidar点云中提取地图视图特征表示。然后,一个2D CNN架构的检测头找到目标中心,并使用中心特征回归到完整的3D边界框。该框预测用于在估计的三维包围框的每个面的三维中心处提取点特征,并将其传递到MLP中,以预测IoU指导的置信度评分和框回归精化。最好彩图观赏。
下图3:CenterPoint对Waymo验证的示例定性结果。我们将原始点云显示为蓝色,将检测到的物体显示为绿色边界框,将边界框内的Lidar点显示为红色。最好彩图观赏。
【结论】
提出了一种基于中心的,同时从Lidar点云中检测和跟踪三维目标的框架。我们的方法使用标准的3D点云编码器,在头部使用少量卷积层来产生鸟瞰热图和其他稠密的回归输出。检测是一种简单的细化局部峰值提取,跟踪是一种最近距离匹配。CenterPoint简单,接近实时,在Waymo和nuScenes基准测试集上达到了最先进的性能。
【扩展】
1 Tracking algorithm
2 CenterPoint
◎ 对输入的点云进行体素化(voxelization),也即将点云投影到pillar或者voxels中。
◎ 使用fully connection layer / 3d sparse convolution 提取pillar / voxels中的特征。
◎ 使用max pooling操作将pillar / voxels的特征“压缩”到BEV平面,获得BEV特征图。
◎ 使用Second Backbone和Second Neck提取BEV的特征。
◎ head部分。
1.采用anchor‐free的预测方式,直接预测目标的center位置。
2.每个不同的类别使用不同head进行预测。
3.预测内容。
内容包括:目标中心位置 heatmap、目标中心和所在像素左上角的偏移量 offset、目标的长宽高 、 目标center在激光雷达坐标系中的高度坐标 z、 目标在激光雷达坐标系中的旋转角 rot。
至此,本文分享的内容就结束了💕💕💕。