经典目标检测YOLO系列(一)复现YOLOV1(5)模型的训练及验证

经典目标检测YOLO系列(一)复现YOLOV1(5)模型的训练及验证

之前,我们依据《YOLO目标检测》(ISBN:9787115627094)一书,提出了新的YOLOV1架构,继续按照此书进行YOLOV1的复现。
经典目标检测YOLO系列(一)YOLOV1的复现(1)总体架构

经典目标检测YOLO系列(一)复现YOLOV1(2)反解边界框及后处理

经典目标检测YOLO系列(一)复现YOLOV1(3)正样本的匹配及损失函数的实现

经典目标检测YOLO系列(一)复现YOLOV1(4)VOC2007数据集的读取及预处理

1 YOLOV1模型的训练

1.1 Yolov8Trainer类

  • 作者为了代码具有更好的复用性,参考一些开源的工作单独实现了若干个训练所用的Trainer类。YOLOv1训练使用的是engine.py下的Yolov8Trainer类。初始化代码如下所示:
  • 初始化代码中,关键的超参数配置都参考了YOLOv5和YOLOv8的项目代码:
    • 优化器使用SGD,其中的momentum参数设置为0.937,weight decay设置为5e-4;
    • 使用梯度累加的策略。当设定的batch size小于64时,会自动计算梯度累加的次数,比如batch size=16时,会累加4次梯度来近似batch size=64的效果;
    • 初始学习率设置为0.01,并采用线性梯度衰减策略;
    • 使用当前YOLO系列很流行的Model EMA(指数移动平均)策略。
      • 指数移动平均(exponential moving average),也叫做权重移动平均(weighted moving average),
        可以用来估计变量的局部均值,使得变量的更新与一段时间内的历史取值有关。
      • 在采用 SGD 或者其他的一些优化算法 (Adam, Momentum) 训练神经网络时,通常会使用EMA的方法。 它的意义在于利用滑动平均的参数来提高模型在测试数据上的健壮性。
      • 简单来讲就是,通过在模型学习过程中融合更多的历史状态,从而达到更好的优化效果。
      • 【炼丹技巧】指数移动平均(EMA)的原理及PyTorch实现 - 知乎 (zhihu.com)
# RT-ODLab/engine.py# YOLOv8 Trainer
class Yolov8Trainer(object):def __init__(self, args, data_cfg, model_cfg, trans_cfg, device, model, criterion, world_size):# ------------------- basic parameters -------------------self.args = argsself.epoch = 0self.best_map = -1.self.device = deviceself.criterion = criterionself.world_size = world_sizeself.heavy_eval = Falseself.last_opt_step = 0self.clip_grad = 10# weak augmentatino stageself.second_stage = Falseself.third_stage = Falseself.second_stage_epoch = args.no_aug_epochself.third_stage_epoch = args.no_aug_epoch // 2# path to save modelself.path_to_save = os.path.join(args.save_folder, args.dataset, args.model)os.makedirs(self.path_to_save, exist_ok=True)# ---------------------------- Hyperparameters refer to YOLOv8 ----------------------------self.optimizer_dict = {'optimizer': 'sgd', 'momentum': 0.937, 'weight_decay': 5e-4, 'lr0': 0.01}self.ema_dict = {'ema_decay': 0.9999, 'ema_tau': 2000}self.lr_schedule_dict = {'scheduler': 'linear', 'lrf': 0.01}self.warmup_dict = {'warmup_momentum': 0.8, 'warmup_bias_lr': 0.1}        # ---------------------------- Build Dataset & Model & Trans. Config ----------------------------self.data_cfg = data_cfgself.model_cfg = model_cfgself.trans_cfg = trans_cfg# ---------------------------- Build Transform ----------------------------self.train_transform, self.trans_cfg = build_transform(args=args, trans_config=self.trans_cfg, max_stride=model_cfg['max_stride'], is_train=True)self.val_transform, _ = build_transform(args=args, trans_config=self.trans_cfg, max_stride=model_cfg['max_stride'], is_train=False)# ---------------------------- Build Dataset & Dataloader ----------------------------self.dataset, self.dataset_info = build_dataset(self.args, self.data_cfg, self.trans_cfg, self.train_transform, is_train=True)self.train_loader = build_dataloader(self.args, self.dataset, self.args.batch_size // self.world_size, CollateFunc())# ---------------------------- Build Evaluator ----------------------------self.evaluator = build_evluator(self.args, self.data_cfg, self.val_transform, self.device)# ---------------------------- Build Grad. Scaler ----------------------------self.scaler = torch.cuda.amp.GradScaler(enabled=self.args.fp16)# ---------------------------- Build Optimizer ----------------------------accumulate = max(1, round(64 / self.args.batch_size))print('Grad Accumulate: {}'.format(accumulate))self.optimizer_dict['weight_decay'] *= self.args.batch_size * accumulate / 64self.optimizer, self.start_epoch = build_yolo_optimizer(self.optimizer_dict, model, self.args.resume)# ---------------------------- Build LR Scheduler ----------------------------self.lr_scheduler, self.lf = build_lr_scheduler(self.lr_schedule_dict, self.optimizer, self.args.max_epoch)self.lr_scheduler.last_epoch = self.start_epoch - 1  # do not moveif self.args.resume and self.args.resume != 'None':self.lr_scheduler.step()# ---------------------------- Build Model-EMA ----------------------------if self.args.ema and distributed_utils.get_rank() in [-1, 0]:print('Build ModelEMA ...')self.model_ema = ModelEMA(self.ema_dict, model, self.start_epoch * len(self.train_loader))else:self.model_ema = None

1.1.1 Yolov8Trainer的train函数

训练分为三个阶段:

  • 在第一阶段,我们采用设定好的数据增强手段来处理输出,并去训练模型,这一阶段会很长,几乎占据了训练的绝大部分的时间开销。
    • 比如设定总的epoch=300,从0~280 epoch都是第一训练阶段;
  • 在第二阶段,我们会关闭【马赛克增强】和【混合增强】,因为这两个数据增强会产生很多几乎不符合真实图像的数据,模型可能会从中学习到一些不合理的特征。
    • 这一阶段会很短,比如只有10个epoch,仍以epoch=300的设定为例,从280~290epoch是第二阶段
    • 这一策略是借鉴于YOLOX工作,不过不同于YOLOX的是,在第二阶段,我们虽然关闭了两个强大的增强,但仍旧【保留了较弱的空间扰动和颜色扰动的两个增强】;
  • 在第三阶段,即从第二阶段结束开始,一直到整个训练结束
    • 这个阶段也很短,仍以epoch=300的设定为例,从290~300 epoch是第三阶段
    • 在这一阶段中,我们【关闭所有的数据增强】,只使用Resize和Normalize操作。
    • Note:
      不过,就我们所训练的YOLOv1而言,我们不会用到马赛克增强和混合增强,所以第二阶段和第一阶段是一样的,只有到了第三阶段去关闭所有的数据增强。
# RT-ODLab/engine.pydef train(self, model):for epoch in range(self.start_epoch, self.args.max_epoch):if self.args.distributed:self.train_loader.batch_sampler.sampler.set_epoch(epoch)# check second stageif epoch >= (self.args.max_epoch - self.second_stage_epoch - 1) and not self.second_stage:self.check_second_stage()  # 关闭【马赛克增强】和【混合增强】# save model of the last mosaic epochweight_name = '{}_last_mosaic_epoch.pth'.format(self.args.model)checkpoint_path = os.path.join(self.path_to_save, weight_name)print('Saving state of the last Mosaic epoch-{}.'.format(self.epoch))torch.save({'model': model.state_dict(),'mAP': round(self.evaluator.map*100, 1),'optimizer': self.optimizer.state_dict(),'epoch': self.epoch,'args': self.args}, checkpoint_path)# check third stageif epoch >= (self.args.max_epoch - self.third_stage_epoch - 1) and not self.third_stage:self.check_third_stage()   # 【关闭所有的数据增强】# save model of the last mosaic epochweight_name = '{}_last_weak_augment_epoch.pth'.format(self.args.model)checkpoint_path = os.path.join(self.path_to_save, weight_name)print('Saving state of the last weak augment epoch-{}.'.format(self.epoch))torch.save({'model': model.state_dict(),'mAP': round(self.evaluator.map*100, 1),'optimizer': self.optimizer.state_dict(),'epoch': self.epoch,'args': self.args}, checkpoint_path)# train one epochself.epoch = epochself.train_one_epoch(model)# eval one epochif self.heavy_eval:model_eval = model.module if self.args.distributed else modelself.eval(model_eval)else:model_eval = model.module if self.args.distributed else modelif (epoch % self.args.eval_epoch) == 0 or (epoch == self.args.max_epoch - 1):self.eval(model_eval)if self.args.debug:print("For debug mode, we only train 1 epoch")break

1.1.2 Yolov8Trainer的train_one_epoch函数

 # RT-ODLab/engine.pydef train_one_epoch(self, model):# basic parametersepoch_size = len(self.train_loader)img_size = self.args.img_sizet0 = time.time()nw = epoch_size * self.args.wp_epochaccumulate = max(1, round(64 / self.args.batch_size))# train one epochfor iter_i, (images, targets) in enumerate(self.train_loader):ni = iter_i + self.epoch * epoch_size# Warmup"""在第一个epoch阶段,会有一段Warmup的过程,即缓慢的将所有的weight的学习率从0线性增加至设定的初始学习率0.01,而所有的bias的学习率则从0.1线性降低至设定的初始学习率0.01,并且,SGD优化器的中的momentum参数也会从默认的warmup_momentum线性增加至设定的0.937。这一warmup策略是遵循了YOLOv5的设定,默认会持续3个epoch。"""if ni <= nw:xi = [0, nw]  # x interpaccumulate = max(1, np.interp(ni, xi, [1, 64 / self.args.batch_size]).round())for j, x in enumerate(self.optimizer.param_groups):# bias lr falls from 0.1 to lr0, all other lrs rise from 0.0 to lr0x['lr'] = np.interp(ni, xi, [self.warmup_dict['warmup_bias_lr'] if j == 0 else 0.0, x['initial_lr'] * self.lf(self.epoch)])if 'momentum' in x:x['momentum'] = np.interp(ni, xi, [self.warmup_dict['warmup_momentum'], self.optimizer_dict['momentum']])# to device# 随后,我们将读取进来的数据放置制定的设备上,比如GPU,并对输入的图像做简单的归一化(除以255)# 注意,这种归一化等价于设定均值和方差为别为0和255。# 之所以这么做是因为均值和方差往往依赖于任务场景的数据,通常不具备泛化性,所以我们不采用统计均值和方差的方法。images = images.to(self.device, non_blocking=True).float() / 255.# Multi scale# 完成这一步后,我们就可以调用类内的rescale_image_targets函数对这批图像做多尺度处理的操作# 即随机将这批图像Resize成其他的尺寸,比如都从640x640调整成512x512# 最后用类内的refine_targets 函数滤出掉无效的目标if self.args.multi_scale:images, targets, img_size = self.rescale_image_targets(images, targets, self.model_cfg['stride'], self.args.min_box_size, self.model_cfg['multi_scale'])else:targets = self.refine_targets(targets, self.args.min_box_size)# visualize train targetsif self.args.vis_tgt:vis_data(images*255, targets)# 然后,我们就可以将这片数据去交给模型做训练阶段的推理(没有后处理阶段),并做标签分配和损失计算,# 当迭代次数达到了梯度累加指定的次数后,就可以反向传播梯度和更新模型的参数。# inferencewith torch.cuda.amp.autocast(enabled=self.args.fp16):# 调用模型获取训练阶段的推理结果outputs = model(images)# loss 标签分配及计算损失loss_dict = self.criterion(outputs=outputs, targets=targets, epoch=self.epoch)losses = loss_dict['losses']losses *= images.shape[0]  # loss * bs# reduce            loss_dict_reduced = distributed_utils.reduce_dict(loss_dict)# gradient averaged between devices in DDP modelosses *= distributed_utils.get_world_size()# backwardself.scaler.scale(losses).backward()# Optimizeif ni - self.last_opt_step >= accumulate:if self.clip_grad > 0:# unscale gradientsself.scaler.unscale_(self.optimizer)# clip gradientstorch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=self.clip_grad)# optimizer.stepself.scaler.step(self.optimizer)self.scaler.update()self.optimizer.zero_grad()# emaif self.model_ema is not None:self.model_ema.update(model)self.last_opt_step = ni# displayif distributed_utils.is_main_process() and iter_i % 10 == 0:t1 = time.time()cur_lr = [param_group['lr']  for param_group in self.optimizer.param_groups]# basic inforlog =  '[Epoch: {}/{}]'.format(self.epoch, self.args.max_epoch)log += '[Iter: {}/{}]'.format(iter_i, epoch_size)log += '[lr: {:.6f}]'.format(cur_lr[2])# loss inforfor k in loss_dict_reduced.keys():log += '[{}: {:.2f}]'.format(k, loss_dict_reduced[k])# other inforlog += '[time: {:.2f}]'.format(t1 - t0)log += '[size: {}]'.format(img_size)# print log inforprint(log, flush=True)t0 = time.time()if self.args.debug:print("For debug mode, we only train 1 iteration")breakself.lr_scheduler.step()

1.1.3 开始训练

训练的主程序代码在train.py文件中,进入项目文件,可以执行下面的脚本进行训练:

python train.py --cuda -d voc \-m yolov1  \-bs 16\-size 416  \--wp_epoch 3  \--max_epoch 150  \--eval_epoch 10 \--no_aug_epoch 10  \--ema  \--fp16  \--multi_scale  

命令行参数的意义:

  • --cuda表示我们调用GPU来训练模型,切记,一定要输入“–cuda”,否则程序只调用CPU来训练,那将是个极其漫长的训练过程;
  • -d是数据集类别,比如voc表示使用VOC数据集,coco表示使用COCO数据集;
  • --root是存放数据集的路径;
  • -bs 16表示训练期间的batch size为16;读者可以根据自己的GPU显存来修改,如-bs 8或者-bs 32等;
  • --size表示输入图像的最长边的尺寸;
  • --wp_epoch是warmup阶段的时长;
  • --max_epoch是训练的总epoch数量;
  • --eval_epoch是在训练阶段中去测试模型的性能的节点;
  • --no_aug_epoch表示最后的多少epoch会关闭数据增强;
  • --ema表示启动Model EMA策略;
  • --fp16表示开启混合精度策略;
  • --multi_scale表示开启多尺度训练策略;

二、模型的验证

2.1 mAP指标计算

  • 训练结束后,模型默认保存在weights/voc/yolov1/文件夹下,名为yolov1_voc_best.pth,保存了训练阶段在测试集上mAP指标最高的模型。

  • 运行项目中所提供的eval.py文件可以验证模型的性能,具体命令如下行所示

  • 可以给定不同的图像尺寸来测试实现的YOLOv1在不同输入尺寸下的性能

    python eval.py \
    --cuda -d voc \
    --root path/to/voc -m yolov1 \
    --weight path/to/yolov1_voc_best.pth \
    -size 416
    
  • 也可以可视化训练好的模型

    python test.py \
    --cuda -d voc \
    --root path/to/voc -m yolov1 
    --weight path/to/yolov1_voc_best.pth \
    -size 416 -vt 0.3 \
    --show# -size表示输入图像的最大边尺寸
    # -vt是可视化的置信度阈值,只有高于此值的才会被可视化出来
    # --show表示展示检测结果的可视化图片
    

    作者训练好的模型,在VOC2007测试集测试指标如下:

    从表格中可以看到,在同样的输入尺寸448×448下,改进后的 YOLOv1 实现了更高的性能:73.2% 的 mAP,超过了官方的 YOLOv1。

模型输入尺寸mAP(%)
YOLOv1*(官方)44863.4
YOLOv141671.9
YOLOv144873.2
YOLOv151274.9
YOLOv164076.7

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/612718.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

uni微信小程序强制用户更新版本

强制更新的代码参考官方文档 uni.getUpdateManager() | uni-app官网 我这边的如下&#xff1a; //检查版本更新const updateManager uni.getUpdateManager();updateManager.onCheckForUpdate(function (res) {// 请求完新版本信息的回调console.log(res.hasUpdate, "是…

【深度学习目标检测】十三、基于深度学习的血细胞识别(python,目标检测,yolov8)

血细胞计数是医学上一种重要的检测手段&#xff0c;用于评估患者的健康状况&#xff0c;诊断疾病&#xff0c;以及监测治疗效果。而目标检测是一种计算机视觉技术&#xff0c;用于在图像中识别和定位特定的目标。在血细胞计数中&#xff0c;目标检测技术可以发挥重要作用。 首先…

2023年全国职业院校技能大赛(高职组)“云计算应用”赛项赛卷⑨

2023年全国职业院校技能大赛&#xff08;高职组&#xff09; “云计算应用”赛项赛卷9 目录 需要竞赛软件包环境以及备赛资源可私信博主&#xff01;&#xff01;&#xff01; 2023年全国职业院校技能大赛&#xff08;高职组&#xff09; “云计算应用”赛项赛卷9 模块一 …

Kubernetes/k8s的存储卷/数据卷

k8s的存储卷/数据卷 容器内的目录和宿主机的目录挂载 容器在系统上的生命周期是短暂的&#xff0c;delete&#xff0c;k8s用控制创建的pod&#xff0c;delete相当于重启&#xff0c;容器的状态也会回复到初始状态 一旦回到初始状态&#xff0c;所有的后天编辑的文件都会消失…

做了运维总监才懂专业运维团队的重要性

信息系统的生命周期涵盖&#xff1a;设计、开发、测试、部署上线、运行维护。其中&#xff0c;运行维护阶段是信息系统生命周期中的关键环节&#xff0c;其执行效果直接影响系统是否能达到预期的运行目标。 为了实现这个目标&#xff0c;我们必须建立一个以业务服务为导向的专…

Openharmony 对应Android内存查看

众所周知&#xff0c;内存查看是一个很重要的部分&#xff0c;大多数情况&#xff0c;我们都是使用dumpsys的方法对android的内存进行查看&#xff0c;但是对于openharmony而言好像又不太一样了。 Android内存查看 命令行&#xff1a; adb shell dumpsys meminfo <packag…

Java零基础教学文档第四篇:HTML_CSS_JavaScript(1)

今日新篇章 【CSS】 【主要内容】 CSS简介 CSS基础语法 CSS选择器 CSS常用属性 CSS元素分类 CSS定位 【学习目标】 1.CSS的简介 1.1 CSS定义与解释** CSS是Cascading Style Sheets&#xff08;层叠样式表单&#xff09;的简称&#xff0c;CSS就是一种叫做样式表&…

K8S--- kubectl auth

该命令可以校验用户或者serviceaccount是否有对应的权限 [root@yyzc-zjjcs01 ~]# /opt/kubernetes/bin/kubectl --kubeconfig /opt/kubernetes/conf/default-admin.kubeconfig auth --help Inspect authorization Available Commands: can-i Check whether an action is allowe…

jQuery —— ajaxForm和ajaxSubmit的用法与区别

ajaxSubmit 这个可以理解为ajaxForm了升级版。 那么&#xff0c;为什么ajaxSubmit会自动提交表单呢&#xff1f; ajaxForm 不能主动提交form 就是为提交表单前做准备&#xff1b;ajaxSubmit 会自动提交 form表单 只要调用ajaxSubmit这个方法就是提交表单。两者配置相同 不…

2024年了,Layui再战三年有问题不?

v2.9.3 2023-12-31 2023 收官。 form 优化 input 组件圆角时后缀存在方框的问题 #1467 bxjt123优化 select 搜索面板打开逻辑&#xff0c;以适配文字直接粘贴触发搜索的情况 #1498 Sight-wcgtable 修复非常规列设置 field 表头选项时&#xff0c;导出 excel 出现合计行错位的…

Ubuntu系统中指定端口防火墙状态查询与操作

浏览器访问&#xff1a; 如果遇到如山图所示的情况&#xff0c;既有可能是防火墙的问题。具体解决方案参照如下&#xff1a; 1.指定端口的防火墙状态查询 &#xff08;1&#xff09;查询命令 sudo ufw status | grep 8081/tcp #其中8081为要查询的端口号 如果端口是打开的…

TDengine 时序数据库 研究学习以及实战

下载地址&#xff1a;TDengine 发布历史及下载链接 | TDengine 文档 | 涛思数据 下载客户端和服务端 服务端和客户端的安装后 TDengine 客户端连接工具地址&#xff1a;Archive Files | DBeaver Community 添加驱动 新增 》 设置 选择驱动类后 设置里的类名就自动填写了&…

Jetson nano 实时性测试,使用stress-ng 和 cyclictest

系统&#xff1a;ubuntu18.04&#xff0c;Jetpack4.3 打上了实时补丁 安装stress-ng和cyclictest sudo apt-get install stress-ng sudo apt-get install rt-tests 无负载情况的实时性 让两个CPU满载运行60秒 两个CPU满载实时性&#xff1a; 测了一下&#xff0c;4个CPU满载的…

go study oneday

这段代码的详细解释&#xff0c;涵盖了Go 语言变量声明、函数调用、用户输入、类型转换以及结果输出。 package main import "fmt" func main() {var num1 intvar num2 float32var num3 intfmt.Println("请输入数字一&#xff1a;")fmt.Scanln(&num1)f…

评中级职称为何要提前准备业绩材料?

众所周知中高级职称每年评审是只有一批&#xff0c;错过的话就只能再等一年了&#xff1b;而且每年的职称评审的时间也是不一样的&#xff0c;根据各地政策通知每年的评审时间都是会有所调整在时间截止之前还未进行提交操作&#xff0c;就意味着你已经错过了本年度的申报时间&a…

服务端性能测试——性能测试工具JMeter-L1

第一遍没学懂&#xff0c;后续文章会更新~ 目录&#xff1a; 1.JMeter介绍与安装Meter简介JMeter安装2.JMeter的运行JMeter运行、界面功能简介3.使用代理服务器录制请求录制压测脚本&#xff08;一&#xff09;Web端脚本录制方法4.测试计划5.线程组6.控制器7.JMeter采样器/取…

【面试突击】分布式技术面试实战

&#x1f308;&#x1f308;&#x1f308;&#x1f308;&#x1f308;&#x1f308;&#x1f308;&#x1f308; 欢迎关注公众号&#xff08;通过文章导读关注&#xff1a;【11来了】&#xff09;&#xff0c;及时收到 AI 前沿项目工具及新技术 的推送 发送 资料 可领取 深入理…

你真的掌握了“C语言分支循环”吗

目录 前言 1. if语句 1.1 if 1.2 else 1.3 分支中包含多条语句 1.4 嵌套if 1.5 悬空else问题 2. 关系操作符 3. 条件操作符 4. 逻辑操作符&#xff1a;&& , || , &#xff01; 4.1 逻辑取反运算符 4.2 与运算符 4.3 或运算符 4.4 练习&#xff1a;闰年的判…

Unity WebView 中文输入支持

使用版本&#xff1a;Vuplex 3D WebView for Windows v4.4&#xff1b; 测试环境&#xff1a;unity editor 2020.3.40f1c1、Windows&#xff1b; 1、打开脚本CanvasWebVie!wPrefab 2、找到_initCanvasPrefab方法&#xff0c;约略在459行附近 3、添加一行代码&#xff1a; …

需求变更如此频繁,还甩锅给测试?

文章目录 项目背景需求变更的频繁的原因&#xff1f;生产问题产品复盘小结 项目背景 有一个数据管理平台系统的项目&#xff0c;需求频繁的变更了15次&#xff0c;每次生产上线后总是能出现一些让人意想不到的bug。开发人员和测试人员对这个项目嗤之以鼻&#xff0c;开项目会的…