大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。
本文介绍模型全参数训练和LoRA微调所需显存的分析,希望对学习和使用大模型的同学们有所帮助。
文章目录
- 1. 前言
- 2. 全参数训练
- 3. LoRA微调
1. 前言
在之前的文章FP16、BF16、INT8、INT4精度模型加载所需显存以及硬件适配的分析中介绍了不同精度下模型加载所需显存,但除了模型部署以外,大家更关心的是模型训练时所需显存的分析。根据分析后的用量,就能够按照需求使用或者租借相应的GPU资源进行训练了。
本篇内容为了简单起见,假设模型默认使用的是FP16或者BF16的精度。
2. 全参数训练
首先将所需显存表示成数学公式,如下所示: