NSA是一种硬件适配且可原生训练的稀疏注意力机制,专为超快速长上下文训练与推理设计。它通过动态分层稀疏策略、粗粒度词元压缩和细粒度词元选择等技术,显著加速推理过程并降低预训练成本。NSA在现代硬件上进行了优化,适用于通用基准测试、长上下文任务及基于指令的推理任务,表现出色。
RWKV Infinite Context trainer 是一个用于训练任意上下文大小的工具,能够处理超过10k的上下文长度,同时在几乎恒定的VRAM内存消耗下运行。
长颈鹿版LongLLaMA是一个专门针对上下文长度达到100K的情况下,保持模型性能的研究项目。它提出了一种新的训练目标,以有效处理长文本中的相关与无关的key-value空间结构,从而解决模型的分心问题,确保在处理超长文本时的高效性和准确性。
PAIR是一款利用机器学习技术开发的AI驱动的编码辅助REPL工具。它将GPT-4与开发人员配对,通过交互式编程对话提高编程效率和准确性。PAIR是开源项目,为开发人员提供更高效、更智能的编程工具。
LLM Giraffe🦒可以用来扩展LLM的上下文长度,它实现了将LLAMA v1 2K的上下文长度扩展为4K和16K,支持长文本处理,优化上下文管理,易于集成到现有的LLM工作流中。
FATE-LLM是基于FederatedAI开发的联邦学习框架,支持大语言模型的分布式训练,旨在促进AI技术在保护知识产权和隐私的前提下的应用。该项目通过联邦学习架构,使得多方在不共享原始数据的情况下,能够协同训练出高效的AI模型,有效应对数据隐私和合规性挑战。
FlexGen: 针对面向吞吐量的场景在单个 GPU 上运行大型语言模型,旨在提高模型的运行效率和简化部署过程。
liteLLM是一个开源库,旨在简化LLM(大语言模型)的完成和嵌入调用。它提供了一个方便易用的接口,使得调用不同的LLM模型变得更加简单。用户只需导入'litellm'库并设置必要的环境变量(如OPENAI_API_KEY和COHERE_API_KEY),即可创建Python函数并使用liteLLM进行LLM完成调用。此外,liteLLM还提供了一个演示平台,用户可以在其中编写Python代码并查看输出,从而比较不同的LLM模型。
Meta 发布的 Llama 3.1 1B和3B的官方量化版本,提供了更小的内存占用、更快的设备推理速度、准确性和便携性。