AI-magic AI-magic AI-magic AI-magic
  • 热门推荐
  • AI工具导航
    • AI工具
    • AI对话工具
    • AI写作工具
    • AI提示工具
    • AI办公工具
    • AI图像工具
    • AI音频工具
    • AI视频工具
    • AI设计工具
    • AI编程工具
    • AI学习网站
    • AI开发框架
    • AI其他工具
  • 开源导航
    • AI开源项目
    • 开源项目
  • 工具站导航
  • AI教程
  • AI百科
  • AI书籍
  • AI资源
  • AI快讯
  • 网站提交
AI-magic AI-magic
  • 首页
  • 黑洞
  • 导航主题
  • 图标

    Transformer模型改进

    Forgetting Transformer (FoX)开源 – 改进的Transformer,增强长文本处理
    Forgetting Transformer (FoX)开源 – 改进的Transformer,增强长文本处理

    Forgetting Transformer (FoX) 是一种改进的 Transformer 模型,通过在 Softmax 注意力机制中加入遗忘门,增强了处理长文本和序列任务的能力。它的设计目标是提升长文本建模、长度外推和短文本任务的性能,同时保持长上下文处理能力,并解决标准 Transformer 缺乏显式数据依赖遗忘机制的问题。FoX 通过数据依赖的方式下调未归一化的注意力分数,命名为“遗忘注意力”(Forgetting Attention)。研究表明,FoX 在长上下文语言建模、长度外推和短上下文下游任务上优于标准 Transformer,而在长上下文下游任务上表现相当。此外,FoX 兼容 Flash Attention 算法,且无需位置嵌入,保留了 Transformer 相对于循环序列模型(如 Mamba-2、HGRN2 和 DeltaNet)在长上下文能力上的优势。

    0
    Transformer模型改进序列任务开源项目语言建模
    AI-magic AI-magic
    AI-magic收录了大量国内外AI工具箱,包括AI写作、图像、视频、音频、编程等各类AI工具,以及常用的AI学习、技术、和模型等信息,让你轻松加入人工智能浪潮。
    Copyright © 2025 AI-magic 浙ICP备19008543号-3 
    反馈
    让我们一起共建文明社区!您的反馈至关重要!