EasyContext 是一个用于内存优化和训练配方的项目,旨在将语言模型的上下文长度扩展到100万令牌,同时对硬件要求最小化。该项目提供了多种方法来提升模型性能,并兼容现有技术的实现,帮助开发者在资源有限的情况下有效地进行模型训练。
LongRoPE项目旨在将大型语言模型的上下文窗口扩展至超过200万Tokens,显著提升长文本处理能力,同时保持原始短上下文窗口的性能。它通过引入有效的搜索识别和位置插值,以及采用渐进扩展策略,在256k训练长度内仅需1k微调步骤,从而实现高效的模型训练与优化。
中文Guanaco(原驼)大语言模型,支持QLora量化训练,可在本地CPU/GPU上高效部署,旨在优化大语言模型的效率,适用于低资源环境的训练和应用。
《动手学大模型》是一本开源书籍,共12章节,涵盖从基础到高级的大语言模型内容,包括语言模型介绍、文本分类、提示词工程、语义搜索、微调模型、多模态模型等。书中包含大量代码示例,可直接在Colab运行,帮助读者更好地理解和应用大语言模型。此外,书中还提供了丰富的实践代码,旨在帮助读者掌握大型语言模型的使用和应用,适合初学者和有经验的开发者。
SpeechT5是一个统一的多模态编码器-解码器预训练模型,专门用于口语处理任务,旨在通过有效的预训练提升语音识别和自然语言处理的性能。
PAIR是一款利用机器学习技术开发的AI驱动的编码辅助REPL工具。它将GPT-4与开发人员配对,通过交互式编程对话提高编程效率和准确性。PAIR是开源项目,为开发人员提供更高效、更智能的编程工具。
Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题,能够降低微调过程中的计算开销和内存需求。通过冻结预训练模型的权重并在每个 Transformer 块中注入可训练层,LoRA 实现了在减少训练参数数量的同时,保持微调质量与全模型微调相当,并显著提高微调速度。
Self-Instruct是一个对齐自生成指令的项目,旨在提升语言模型的适应性,支持多样化任务的处理,适合自适应聊天机器人和自然语言处理任务。
一个高效的深度学习训练框架,旨在简化模型训练和优化过程,提供了多种预训练模型和工具,适用于计算机视觉任务。
支持ONNX模型量化的开源Python库,提供流行的模型压缩技术,如SmoothQuant和权重量化,适用于Intel硬件和流行的大型语言模型(LLM)。