YOLOV8逐步分解(5)_模型训练初始设置之混合精度训练AMP

yolov8逐步分解(1)--默认参数&超参配置文件加载

yolov8逐步分解(2)_DetectionTrainer类初始化过程

yolov8逐步分解(3)_trainer训练之模型加载_yolov8 加载模型-CSDN博客

YOLOV8逐步分解(4)_模型的构建过程

        在上述文章逐步分解(3)和(4)中主要讲解了模型训练初始设置中self.setup_model()函数模型的加载及构建过程,本章将讲解混合精度训练AMP的相关代码。

        下面是_setup_train()函数的详细代码。

def _setup_train(self, world_size):""" Builds dataloaders and optimizer on correct rank process.   """# Modelself.run_callbacks('on_pretrain_routine_start')ckpt = self.setup_model()#加载模型self.model = self.model.to(self.device)self.set_model_attributes()# Check AMPself.amp = torch.tensor(self.args.amp).to(self.device)  # True or Falseif self.amp and RANK in (-1, 0):  callbacks_backup = callbacks.default_callbacks.copy()  # backup callbacks as check_amp() resets themself.amp = torch.tensor(check_amp(self.model), device=self.device) #使用 check_amp 函数检查模型是否支持混合精度callbacks.default_callbacks = callbacks_backup  # restore callbacks, 恢复回之前备份的回调函数if RANK > -1 and world_size > 1:  # DDP 使用 dist.broadcast 将 self.amp 张量从rank 0广播到其他所有rank(返回None)。dist.broadcast(self.amp, src=0)  # broadcast the tensor from rank 0 to all other ranks (returns None)self.amp = bool(self.amp)  # as booleanself.scaler = amp.GradScaler(enabled=self.amp) #创建一个 scaler 对象,用于在混合精度训练中缩放梯度if world_size > 1:self.model = DDP(self.model, device_ids=[RANK])# Check imgszgs = max(int(self.model.stride.max() if hasattr(self.model, 'stride') else 32), 32)  # grid size (max stride)self.args.imgsz = check_imgsz(self.args.imgsz, stride=gs, floor=gs, max_dim=1)# Batch sizeif self.batch_size == -1: #表示批量大小需要自动估计if RANK == -1:  # single-GPU only, estimate best batch sizeself.args.batch = self.batch_size = check_train_batch_size(self.model, self.args.imgsz, self.amp)#估计最佳批量大小else:SyntaxError('batch=-1 to use AutoBatch is only available in Single-GPU training. ''Please pass a valid batch size value for Multi-GPU DDP training, i.e. batch=16')# Dataloadersbatch_size = self.batch_size // max(world_size, 1)self.train_loader = self.get_dataloader(self.trainset, batch_size=batch_size, rank=RANK, mode='train')#获取训练集if RANK in (-1, 0):self.test_loader = self.get_dataloader(self.testset, batch_size=batch_size * 2, rank=-1, mode='val') #获取测试集self.validator = self.get_validator() #创建验证器(validator),用于评估模型在验证数据集上的性能。metric_keys = self.validator.metrics.keys + self.label_loss_items(prefix='val')self.metrics = dict(zip(metric_keys, [0] * len(metric_keys)))  # TODO: init metrics for plot_results()?self.ema = ModelEMA(self.model)if self.args.plots and not self.args.v5loader: #如果 self.args.plots 为真且 self.args.v5loader 为假self.plot_training_labels() #绘制训练标签的图表# Optimizerself.accumulate = max(round(self.args.nbs / self.batch_size), 1)  # accumulate loss before optimizingweight_decay = self.args.weight_decay * self.batch_size * self.accumulate / self.args.nbs  # scale weight_decayiterations = math.ceil(len(self.train_loader.dataset) / max(self.batch_size, self.args.nbs)) * self.epochsself.optimizer = self.build_optimizer(model=self.model,name=self.args.optimizer,lr=self.args.lr0,momentum=self.args.momentum,decay=weight_decay,iterations=iterations)# Schedulerif self.args.cos_lr:self.lf = one_cycle(1, self.args.lrf, self.epochs)  # cosine 1->hyp['lrf']else:self.lf = lambda x: (1 - x / self.epochs) * (1.0 - self.args.lrf) + self.args.lrf  # linearself.scheduler = optim.lr_scheduler.LambdaLR(self.optimizer, lr_lambda=self.lf)self.stopper, self.stop = EarlyStopping(patience=self.args.patience), Falseself.resume_training(ckpt) #恢复训练过程。ckpt 是一个检查点文件,用于加载之前保存的模型和训练状态。self.scheduler.last_epoch = self.start_epoch - 1  # do not moveself.run_callbacks('on_pretrain_routine_end') #运行预训练过程结束时的回调函数。

1. setup_model()的代码讲解

前面已经讲解了self.setup_model()的代码,这里再简单介绍一下相关代码:

        # Modelself.run_callbacks('on_pretrain_routine_start')ckpt = self.setup_model()#加载模型self.model = self.model.to(self.device)self.set_model_attributes()

1.1 self.run_callbacks('on_pretrain_routine_start'):

这行代码触发了预训练例程开始的回调函数。回调函数是一种允许在训练过程中的特定时间点执行自定义操作的机制。

在这里,可能有一些定制的操作需要在模型预训练开始时执行,比如日志记录、模型参数初始化等。

1.2. ckpt = self.setup_model():

这行代码调用了 self.setup_model() 方法,它负责设置和加载模型。

ckpt 变量可能保存着模型的检查点(checkpoint)信息,例如预训练的权重等,以便后续使用。

1.3. self.model = self.model.to(self.device):

这行代码将模型移动到指定的设备上,通常是 GPU 或 CPU。

这是为了确保模型的计算在正确的硬件设备上进行,以利用硬件加速提高训练效率。

1.4. self.set_model_attributes():

这行代码调用了 self.set_model_attributes() 方法,可能用于设置或更新模型的一些属性。

Yolov8中用于设置属性names。

        这段代码是模型训练流程的初始化阶段。它执行了一些必要的模型加载构建等设置和准备工作,为后续的训练过程做好了准备。

2. 混合精度训练MAP代码讲解

        # Check AMPself.amp = torch.tensor(self.args.amp).to(self.device)  # True or Falseif self.amp and RANK in (-1, 0):  callbacks_backup = callbacks.default_callbacks.copy()  # backup callbacks as check_amp() resets themself.amp = torch.tensor(check_amp(self.model), device=self.device) #使用 check_amp 函数检查模型是否支持混合精度callbacks.default_callbacks = callbacks_backup  # restore callbacks, 恢复回之前备份的回调函数if RANK > -1 and world_size > 1:  # DDP 使用 dist.broadcast 将 self.amp 张量从rank 0广播到其他所有rank(返回None)。dist.broadcast(self.amp, src=0)  # broadcast the tensor from rank 0 to all other ranks (returns None)self.amp = bool(self.amp)  # as booleanself.scaler = amp.GradScaler(enabled=self.amp) #创建一个 scaler 对象,用于在混合精度训练中缩放梯度if world_size > 1:self.model = DDP(self.model, device_ids=[RANK])

上述代码是处理模型的混合精度训练(Automatic Mixed Precision, AMP),可以参考文章深度学习之混合精度训练AMP介绍。下面逐步解释一下它的代码:

2.1 self.amp = torch.tensor(self.args.amp).to(self.device):

        这行代码将用户传入的 self.args.amp 参数(True或False)转换为一个 PyTorch 张量,并将其移动到指定的设备上。

        这个 self.amp 张量将用于决定是否启用混合精度训练。

2.2 if self.amp and RANK in (-1, 0)::

        这个条件检查是否启用了混合精度训练,并且当前进程的 rank 为 -1 或 0。

        rank 为 -1 通常表示单机训练,rank 0 表示分布式训练中的主进程。

2.3 self.amp = torch.tensor(check_amp(self.model), device=self.device):

        这行代码使用 check_amp() 函数检查模型是否支持混合精度训练。

        检查结果被存储在 self.amp 张量中。

2.4 callbacks.default_callbacks = callbacks_backup:

        在调用 check_amp() 之前,代码先备份了默认的回调函数列表。

        这是因为 check_amp() 可能会重置回调函数,所以需要在检查完成后将其恢复。

2.5 if RANK > -1 and world_size > 1:

        如果当前处于分布式训练模式(RANK > -1 且 world_size > 1),则使用 dist.broadcast() 将 self.amp 张量从 rank 0 广播到所有其他rank。

        这确保了所有进程使用相同的 self.amp 值。

2.6 self.amp = bool(self.amp):

        将 self.amp 从张量转换为布尔值,方便后续使用。

2.7 self.scaler = amp.GradScaler(enabled=self.amp):

        创建一个 GradScaler 对象,用于在启用混合精度训练时缩放梯度。

2.8  self.model = DDP(self.model, device_ids=[RANK]):

        如果是分布式训练,则将模型包装成 DistributedDataParallel (DDP)模型,以支持分布式训练。

        这段代码的主要目的是检查模型是否支持混合精度训练,并根据检查结果设置相应的配置。这有助于提高训练效率和性能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/17178.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

使用tkMapper时避免传入null值导致查询数据不符合预期

使用tkMapper时避免传入null值导致查询数据不符合预期 在我们日常使用tkmapper时&#xff0c;我们一般的写法是&#xff1a; Weekend<StudentDO> weekend Weekend.of(StudentDO.class); weekend.weekendCriteria().andEqualTo(StudentDO::getClassCode, req.getClassCod…

【吊打面试官系列】Java高并发篇 - ConcurrentHashMap 的并发度是什么?

大家好&#xff0c;我是锋哥。今天分享关于 【ConcurrentHashMap 的并发度是什么?】面试题&#xff0c;希望对大家有帮助&#xff1b; ConcurrentHashMap 的并发度是什么? ConcurrentHashMap 的并发度就是 segment 的大小&#xff0c;默认为 16&#xff0c; 这意味着最多同时…

Android:将时间戳转换为本地时间格式

一、效果图 图1&#xff0c;中国的时间格式 图2&#xff0c;美国的时间格式 二、StringUtil.kt代码 import java.text.DateFormat import java.text.SimpleDateFormat import java.util.* object StringUtil {fun formatTimestamp(currentTime: Long): String {var sdf Si…

【STM32】检测SD卡是否插入

【STM32】检测SD卡是否插入 开发环境原理图确定引脚的高低电平中断方式检测插入配置引脚打开引脚的中断编写代码显示SD卡信息引脚中断回调函数 实现的效果 开发环境 软件&#xff1a;STM32CubeIDE1.14.1 硬件&#xff1a;立创天空星STM32F407VE&#xff1b;SD卡 原理图 要确…

MySQL之创建高性能的索引(三)

创建高性能的索引 哈希索引 哈希索引(hash index)基于哈希表实现&#xff0c;只有精确匹配索引所有的列的查询才有效。对于每一行数据&#xff0c;存储引擎都会对所有的索引列计算一个哈希码(hash code).哈希码是一个较小的值&#xff0c;并且不同键值的行计算出来的哈希码也…

波兰表达式c语言递归

波兰表达式&#xff08;Polish Notation&#xff09;&#xff0c;又称前缀表达式&#xff0c;是一种没有括号的算术表达式&#xff0c;其中运算符位于操作数之前。与常见的中缀表达式&#xff08;如常见的数学表达式&#xff09;不同&#xff0c;波兰表达式避免了对括号的需求&…

isscc2024 short course4 In-memory Computing Architectures

新兴的ML加速器方法&#xff1a;内存计算架构 1. 概述 内存计算&#xff08;In-memory Computing&#xff09;架构是一种新兴的机器学习加速器方法&#xff0c;通过将计算能力集成到存储器中&#xff0c;以减少数据移动的延迟和能耗&#xff0c;从而提高计算效率和性能。这种方…

linux mv操作和cp操作

mv 和 cp 是 Linux 系统中用于移动和复制文件或文件夹的两个常用命令&#xff0c;它们之间的主要区别在于&#xff1a; mv&#xff08;move&#xff09;&#xff1a;mv 命令用于移动文件或文件夹&#xff0c;将它们从一个位置移动到另一个位置。移动后&#xff0c;原始文件或文…

服务器软件架构演进

服务器软件架构演进 背景介绍阶段一&#xff1a;单机部署阶段二&#xff1a;应用与数据分离部署阶段三&#xff1a;启用缓存优化阶段四&#xff1a;启用应用服务器集群阶段五&#xff1a;数据库读写分离阶段六&#xff1a;启用反向代理及CDN加速阶段七&#xff1a;启用分布式文…

ComfyUI简单介绍

&#x1f353;什么是ComfyUI ComfyUI是一个为Stable Diffusion专门设计的基于节点的图形用户界面&#xff0c;可以通过各种不同的节点快速搭建自己的绘图工作流程。 软件打开之后是长这个样子&#xff1a; 同时软件本身是github上的一个开源项目&#xff0c;开源地址为&#…

【WEB前端2024】开源智体世界:乔布斯3D纪念馆-第28课-avatar玩家3D形象

【WEB前端2024】开源智体世界&#xff1a;乔布斯3D纪念馆-第28课-avatar玩家3D形象 使用dtns.network德塔世界&#xff08;开源的智体世界引擎&#xff09;&#xff0c;策划和设计《乔布斯超大型的开源3D纪念馆》的系列教程。dtns.network是一款主要由JavaScript编写的智体世界…

零售EDI:Target DVS EDI项目案例

Target塔吉特是美国一家巨型折扣零售百货集团&#xff0c;与全球供应商建立长远深入的合作关系&#xff0c;目前国内越来越多的零售产品供应商计划入驻Target。完成入驻资格审查之后&#xff0c;Target会向供应商提出EDI对接邀请&#xff0c;企业需要根据指示完成供应商EDI信息…

windows 控制面板卸载程序在注册表中位置

计算机\HKEY_LOCAL_MACHINE或者HKEY_CURRENT_USER\SOFTWARE\WOW6432Node\Microsoft\Windows\CurrentVersion\Uninstall\荐片高清影音 HKEY_CURRENT_USER 控制面板注册表只有当前用户可见 HKEY_LOCAL_MACHINE 控制面板注册表所有用户可见

【STM32踩坑】HAL固件库版本过高导致烧录后无法运行问题

问题引入 目前STM32CUBEMX已经更新到了6.11版本&#xff0c;对应的固件库也一直在更新&#xff1b; 以STM32F1库为例&#xff0c;目前最新的库对应版本为1.8.5 但是我们会发现&#xff0c;如果直接使用1.8.5版本的固件库生成HAL源码后&#xff0c;烧录是可以烧录&#xff0c;但…

Python每秒1000次压测

Molotov是一个用Python编写的轻量级HTTP负载测试工具,旨在帮助开发者进行简单的性能测试和压力测试。它通过模拟大量并发用户访问来测试Web服务的响应时间、吞吐量以及稳定性。Molotov特别强调易用性和可扩展性,允许用户自定义场景和断言来更好地适应不同应用的测试需求。 安…

leetcode栈和队列的相关题、有效的括号、用队列实现栈、用栈实现队列、设计循环队列等介绍

文章目录 前言一、有效的括号二、用队列实现栈三、 用栈实现队列四、设计循环队列总结 前言 leetcode栈和队列的相关题、有效的括号、用队列实现栈、用栈实现队列、设计循环队列等介绍 一、有效的括号 leetcode有效的括号 // 动态增长的栈 typedef char STDataType; typedef…

香港优才计划需要什么条件?一文给你说清2024优才政策、申请利弊及获批攻略

香港优才计划申请&#xff0c;竞争正逐渐加剧&#xff0c;在正式递交申请前&#xff0c;客观评估自身申请条件&#xff0c;找准个人履历中与香港人才引进的契合点&#xff0c;并在申请材料中详细表明&#xff0c;更有助于获批。 在申请之前&#xff0c;我们必须明白一个事实&a…

Hack The Box-BoardLight

总体思路 子域名收集->默认密码->信息泄露->CVE-2022-37706 信息收集&端口利用 nmap -sSVC boardlight.htb发现22和80端口开放&#xff0c;先看80端口网站信息 四处查看后&#xff0c;发现没有有效信息&#xff0c;对其进行目录扫描和子域名扫描 dirsearch -u…

總結力學_2

個人近況 最近搞了畢業論文,讓大家久等了... 梳理路徑 "普通物理学习的是基本的想法。这些想法最好能在学习过程中简单、直接地呈现出来。绝大部分的前沿知识无法满足这个要求。所谓前沿常常指的是新发现的事实,并未超出那些基本的想法,正所谓“太阳底下无新事”。真…

【吊打面试官系列】Java高并发篇 - 线程的调度策略?

大家好&#xff0c;我是锋哥。今天分享关于 【线程的调度策略?】面试题&#xff0c;希望对大家有帮助&#xff1b; 线程的调度策略? 线程调度器选择优先级最高的线程运行&#xff0c;但是&#xff0c;如果发生以下情况&#xff0c;就会终止线程的运行&#xff1a; 1、线程体…