写在前面
在大型语言模型(LLM)的演进浪潮中,Transformer 架构凭借其强大的并行计算能力和对长距离依赖的出色捕捉,奠定了核心地位。然而,标准的 Transformer Decoder Block 遵循着一种相对固定的模式:先进行自注意力(Self-Attention)捕捉上下文信息,再通过前馈神经网络(Feed-Forward Network, FFN)进行特征提炼。这种“先注意,后提炼”的串行结构在无数模型中被证明是有效的,但它是否是唯一的选择?或者说,是否存在更优的组合方式来平衡模型的表达能力、计算效率和训练动态?
近年来,一些研究开始探索打破这种固定模式,尝试将 Self-Attention 和 FFN 层以不同的方式组合或交错。本文将深入探讨 几种可能的优化结构设计,分析其背后的逻辑动机,并通过伪代码和概念示例来阐述其实现方式,旨在揭示这种“交错智慧”的潜在优势和挑战。
1. 回顾标准 Transformer Decoder Block:串行的基石
在我们探索“交错”之前,必须清晰地理解标准的 Transformer Decoder Block 结构(以 Llama 等常见 Decoder-only