Megatron-LLM是一个专为大规模分布式训练设计的库,旨在高效支持语言模型的预训练和微调。它提供灵活的模型架构配置,并支持多种优化算法,使得用户可以根据需求进行优化和扩展,同时易于与其他深度学习框架集成。
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。
Grok-1是xAI推出的开源大语言模型,拥有3140亿参数,适用于NLP任务,并提供JAX示例代码,便于加载、运行和微调。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
WizardLM是一个基于Code Llama微调的模型,专注于代码生成和相关任务,支持多种编程语言的代码编写与理解,提供模型的测试地址和下载链接,经过简单测试表现良好。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
混合自回归线性核(Mixed Auto-Regressive Linear kernel),一个经过高度优化的FP16xINT4矩阵乘法核,用于LLM推理,可以在批量大小为16-32个token的情况下实现接近理想的约4倍加速。
Anyscale是一个统一的计算平台,旨在利用Ray简化可扩展AI和Python应用的开发、部署和管理。用户可以轻松地开始使用Anyscale端点进行服务和微调开源大型语言模型(LLMs)。
FasterTransformer是一个高度优化的基于Transformer的编码器和解码器组件,提供高效的推理和训练性能,支持多种Transformer模型,并兼容多种深度学习框架,灵活配置以满足不同需求。
MAP-NEO/document-convert是一个高效的转换管道,能够将PDF或扫描图像转换为类似Markdown格式,保留文档结构和格式,适用于多模态艺术投影项目。
LLM-zero2hero是一个高度解耦的微调项目,旨在支持大语言模型的自定义训练、验证和推理过程。它提供了全量微调和LoRA微调的能力,使用户能够灵活地调整模型以满足特定需求。
liteLLM是一个开源库,旨在简化LLM(大语言模型)的完成和嵌入调用。它提供了一个方便易用的接口,使得调用不同的LLM模型变得更加简单。用户只需导入'litellm'库并设置必要的环境变量(如OPENAI_API_KEY和COHERE_API_KEY),即可创建Python函数并使用liteLLM进行LLM完成调用。此外,liteLLM还提供了一个演示平台,用户可以在其中编写Python代码并查看输出,从而比较不同的LLM模型。
一种通过哨兵令牌压缩自回归变换器上下文的方法,提高模型效率。
该教程是连接基础微积分与深度学习实践的桥梁,适合希望摆脱“黑箱”使用框架、深入理解模型数学本质的开发者。
大语言模型蒸馏的自动化管道,支持单教师和多教师模型的蒸馏,适用于指令和完成文本的蒸馏,支持离线蒸馏和跨平台操作,具备丰富的自定义选项