LLM 训练中存储哪些矩阵
目录
- LLM 训练中存储哪些矩阵
- 深度学习中梯度和优化器是什么
在 LLM 训练中通常会存储以下矩阵:
- 权重矩阵:这是模型的核心组成部分。例如在基于 Transformer 架构的 LLM 中,每一层的多头注意力机制和前馈神经网络都会有相应的权重矩阵。以 BERT 模型为例,它有多个隐藏层,每个隐藏层中的注意力模块会有查询**(Q)、键(K)、值(V)**的权重矩阵,这些权重矩阵用于对输入进行线性变换,从而捕捉输入文本中不同位置之间的关系。在训练过程中,这些权重矩阵会不断被更新以学习到更好的语言表示。
- 梯度矩阵:在训练过程中,计算损失函数相对于权重矩阵的梯度。这些梯度矩阵用于指导权重矩阵的更新。例如,**在使用随机梯度下降(SGD)或其变体(如 Adagrad、Adam 等)**进行优化时,会根据计算得到的梯度矩阵来调整权重矩阵的值。每次迭代中,通过反向传播算法计算出的梯度矩阵会反映出当前权重矩阵的调整方向和幅度,以使得模型在训练过程中逐渐降低损失函数的值,提高模型的性能。
此外,还可能会存储一些中间结果的矩阵,如激活值矩阵,历史梯度信息等,