在本文中,我们将演示基础模型的应用,例如 Meta 的 Segment Anything 和 YOLOv8,以自动检测、分类和绘制视频中感兴趣对象的蒙版。这是之前指南的后续:使用 Meta 的 Segment Anything 和 YOLOv8 自动分类掩码。在本指南中,我们将自动检测和分割视频中的对象。
NSDT工具推荐: Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 - Three.js虚拟轴心开发包
视频有很多帧,标记起来很乏味。分割蒙版的标记更加耗时,因为它们在逐帧之间变化很小,每次都需要手动微调。借助基础模型,可以自动执行并显著加快标记过程,从而在更短的时间内标记更多视频数据。这使你可以将宝贵的时间集中在审查上,只需更正 AI 模型的输出即可。
我们将完成一个简单的语义分割任务:在滑板的人周围绘制蒙版。
下面是该过程的高级摘要,我们将在下面逐步完成该过程,并附有代码:
1) 加载 YOLOv8、SAM 和 Labelbox Python SDK
2) 对于视频的每一帧:
- 运行对象检测器以生成具有指定类分类的边界框
- 将边界框作为输入提供给 Meta 的 Segment Anything 模型,该模型将生成分割掩码
- 以 Labelbox Python SDK 期望的格式准备掩码预测
3) 通过预测导入一次性将所有帧上传到 Labelbox
4)打开视频编辑器,像往常一样查看或修改预标签
你可以使用我们的 Colab 笔记本在你的视频上运行上述所有开箱即用的功能。只需加载你的视频,即可在几分钟内获得自动分割的蒙版,并在 Labelbox 中上课!
在本指南中,我们将使用以下视频:
1、加载 YOLOv8
YOLOv8 是一个最先进的对象检测器,它围绕常见对象生成边界框和类。它是 YOLO(You Only Look Once)系列模型的最新版本,拥有一些令人印象深刻的功能。YOLOv8 以其速度和准确性而闻名,使其成为广泛应用的宝贵工具。在这里,我们使用 YOLOv8 来自动检测和定位视频中的滑板人。
import ultralytics
ultralytics.checks()
from ultralytics import YOLO
model = YOLO(f'{HOME}/yolov8n.pt')# each class id is assigned a different color
colors = np.random.randint(0, 256, size=(len(model.names), 3))
print(model.names)# Specify which classes you care about. The rest of classes will be filtered out.
chosen_class_ids = [0] # 0 refers to person, as per model.names
2、加载 SAM
Meta 的 SAM 模型是一种最先进的计算机视觉模型,旨在将图像和视频准确地分割成不同的对象。使用先进的深度学习技术,Segment Anything 能够识别和分割图像中的对象,使其成为广泛应用的强大工具。SAM 模型能够根据提示生成分割掩码,包括边界框提示,我们将在下面的代码中使用这些提示。
如需了解 SAM 的编辑体验,请阅读我们的另一篇博文 Auto-Segment 2.0 powered by Meta's Segment Anything Model。
import torch
import matplotlib.pyplot as plt
from segment_anything import sam_model_registry, SamAutomaticMaskGenerator, SamPredictorDEVICE = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
sam = sam_model_registry["vit_h"](checkpoint=CHECKPOINT_PATH).to(device=DEVICE)
mask_predictor = SamPredictor(sam)
3、加载 Labelbox 的 Python SDK
Labelbox 的 Python SDK 为你提供了创建本体、项目和数据集以及将蒙版上传到视频的简单方法。
import labelbox as lb
import labelbox.types as lb_types# Create a Labelbox API key for your account by following the instructions here:
# https://docs.labelbox.com/reference/create-api-key
# Then, fill it in here
API_KEY = ""
client = lb.Client(API_KEY)
4、逐帧运行 YOLOv8 和 SAM
在这里,我们在每一帧上运行模型并自动生成蒙版。
cap = cv2.VideoCapture(VIDEO_PATH)# This will contain the resulting mask predictions for upload to Labelbox
mask_frames = []frame_num = 1
while cap.isOpened():ret, frame = cap.read()if not ret:break# Run frame through YOLOv8 to get detectionsdetections = model.predict(frame, conf=0.7)# Run frame and detections through SAM to get maskstransformed_boxes = mask_predictor.transform.apply_boxes_torch(detections[0].boxes.xyxy, list(get_video_dimensions(cap)))mask_predictor.set_image(frame)masks, scores, logits = mask_predictor.predict_torch(boxes = transformed_boxes,multimask_output=False,point_coords=None,point_labels=None)# Combine mask predictions into a single mask, each with a different colorclass_ids = detections[0].boxes.cpu().clsmerged_with_colors = add_color_to_mask(masks[0][0], colors[int(class_ids[0])]).astype(np.uint8)for i in range(1, len(masks)):curr_mask_with_colors = add_color_to_mask(masks[i][0], colors[int(class_ids[i])])merged_with_colors = np.bitwise_or(merged_with_colors, curr_mask_with_colors)# Upload multi-colored combined mask to temp location# to get temp instance uriinstance_uri = get_instance_uri(client, global_key, merged_colored_mask)# Create MaskFrame object to be uploaded to Labelboxmask_frame = lb_types.MaskFrame(index=frame_num, instance_uri=instance_uri)mask_frames.append(mask_frame)frame_num += 1cap.release()
5、将预测的蒙版作为预标签上传到 Labelbox
预测的蒙版可以通过我们的 SDK 轻松无缝地集成到 Labelbox 中。
在视频数据上创建分割掩码可能既繁琐又耗时。利用 Labelbox 中基础模型的强大功能,你可以在几分钟内轻松生成带有分类的蒙版。现在,无需花费数小时标记视频数据,而是可以加快视频标记速度,不仅可以缩短上市时间,还可以降低开发模型的成本。
原文链接:基于SAM的视频标注 - BimAnt