AttentionEngine 是一个旨在优化注意力机制的综合框架,特别支持 Transformer 和线性注意力。它通过模块化设计和自动化优化,减少了手动干预的需求,提供灵活的适应性以满足多样化的算法要求。用户可以用 80 行代码定义 softmax 注意力,并自动生成高性能设备代码。该框架支持多种硬件平台,如 NVIDIA H100 和 AMD MI250,性能测试显示在 H100 上表现优异。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型