2:4 Activation Sparsity Accelerating Transformer Inference and Training论文 – 加速Transformer训练和推理的稀疏性技术
该项目利用2:4稀疏性模式,通过硬件加速的GPU稀疏性来优化Transformer模型的训练和推理过程。特别针对Squared-ReLU激活函数,该函数天然具有高稀疏性(84-98%),在不损失准确性的情况下,前向和后向传播中的前馈网络(FFN)计算速度提高高达1.3倍。项目通过自定义内核高效处理稀疏操作,并通过张量分割和令牌排列优化后向传播,展示了稀疏性在加速大型语言模型(LLM)中的关键潜力。