Warning: Undefined variable $main_title in /www/wwwroot/msbd/wp-content/themes/onenav/sidebar-sitestop.php on line 26
AI交流(进群备注:)

激活信标可以将LLM的原始激活压缩成更紧凑的形式,从而在有限的上下文窗口中感知更长的上下文。它通过短滑动窗口处理长上下文,同时保留LLM在短上下文上的原始能力,显著提高了长上下文语言建模和理解任务的表现。
激活信标的特点:
1. 将LLM的上下文长度扩展100倍
2. 在长上下文的语言建模和理解任务中取得卓越结果
3. 通过短滑动窗口处理长上下文
4. 保留LLM在短上下文上的原始能力
5. 以较低的成本在短时间内有效学习
激活信标的功能:
1. 处理长上下文的语言理解任务
2. 提高大型语言模型在特定任务上的性能
3. 用于自回归任务的训练
4. 在有限的上下文窗口内扩展模型的感知能力
相关导航

Forgetting Transformer (FoX)开源 – 改进的Transformer,增强长文本处理
Forgetting Transformer (FoX) 是一种改进的 Transformer 模型,通过在 Softmax 注意力机制中加入遗忘门,增强了处理长文本和序列任务的能力。它的设计目标是提升长文本建模、长度外推和短文本任务的性能,同时保持长上下文处理能力,并解决标准 Transformer 缺乏显式数据依赖遗忘机制的问题。FoX 通过数据依赖的方式下调未归一化的注意力分数,命名为“遗忘注意力”(Forgetting Attention)。研究表明,FoX 在长上下文语言建模、长度外推和短上下文下游任务上优于标准 Transformer,而在长上下文下游任务上表现相当。此外,FoX 兼容 Flash Attention 算法,且无需位置嵌入,保留了 Transformer 相对于循环序列模型(如 Mamba-2、HGRN2 和 DeltaNet)在长上下文能力上的优势。
暂无评论...