这是一个完整的管道,用于在消费硬件上使用LoRA和RLHF微调Alpaca LLM。基于Alpaca架构实现人类反馈的强化学习(RLHF),基本上是ChatGPT的一个变体,但使用的是Alpaca。
一种基于Llama-2模型使用自己数据微调的方法,A100显卡就可以对70B模型微调。
专注于训练和微调中等大小 GPT 模型的最简仓库,是 karpathy/nanoGPT 的一个分支,并提供了最大更新参数化(muP)的最小实现,旨在简化用户的使用体验和模型的优化过程。
slowllama实现了在苹果M1/M2设备(如MacBook Air或Mac mini)上对Llama2和CodeLlama模型(包括7B/70B等规模)进行微调,且未采用量化优化。
一个自托管的 GitHub Copilot,GitHub Copilot 的开源/本地替代方案,旨在提供灵活的开发体验。它可以在本地运行,无需依赖外部数据库或云服务,同时具备可视化界面和强大的API接口,方便集成到现有开发环境中。
Data Agent是一个生成式AI聊天机器人,能够快速根据您的数据构建。使用Data Agent,您可以轻松创建适用于各种场景的无代码AI聊天机器人。该AI机器人经过您的数据训练,易于自定义,并且可以在多个渠道上部署。
ExLlamaV2是一个高效的推理库,旨在让用户能够在现代消费级GPU上本地运行各种大型语言模型(LLMs),并优化内存使用,以实现快速推理。
这个开源项目是一个生成式AI模型优化赛的参赛方案,获得了天池NVIDIA TensorRT Hackathon 2023初赛的第三名。该项目的功能涉及到开源、机器学习等领域。
旨在实现基于熵的采样和并行链式思维(CoT)解码,目前支持 llama3.1+ 模型,计划支持 DeepSeekV2+ 和 Mistral Large (123B) 模型。该工具通过熵值优化生成过程,提高了生成文本的多样性和准确性,适合处理复杂的文本生成任务。
一个基于斯坦福的 Alpaca,并进行了中文优化的大语言模型项目,愿景是成为能够帮到每一个人的LLM Engine。
GPT Core用于创建和训练先进的大型语言模型(LLM),着重强调了其快速性能,可以在仅20分钟消费级GeForce RTX™ 4090上将自定义的1.23亿参数LLM预训练到约3.5的验证损失。
EasyEdit 是一个用于编辑大型语言模型的 Python 框架,支持多种模型如 GPT-J、Llama、GPT-NEO、GPT2、T5 等。其目标是在特定领域或知识上高效地修改语言模型的行为,而不会对其他输入的性能产生负面影响。该框架易于使用且易于扩展,适合用于研究和开发语言模型。
一套评估大语言模型AI研发能力的任务集合,包含7个具有挑战性的任务,涵盖Rust代码编程、GPT-2微调、嵌入修复、LLM训练优化、GPU内核优化等领域,每个任务都有明确的评分标准和基准分数,用于测试AI代理与人类专家的能力对比
OneDiff是一个用于加速扩散模型的工具,提供了一种新的免训练、几乎无损的范式,显著提升模型的迭代速度。
能力密度是研究团队提出的评估不同规模 LLM 的训练质量的新指标,定义为模型的有效参数量与实际参数量的比值。该指标提供了统一的度量框架,通过引入参考模型的概念,建立参数量与性能之间的映射关系,显著降低同等性能的推理成本,并指示模型存在高性价比的有效使用期。
用于微调和评估开源大型语言模型的工具集,目前处于早期开发阶段,旨在为研究人员和开发者提供一个强大、灵活且易于使用的解决方案。
一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练和融合、量化。
Llama 2 Everywhere (L2E) 是一个友好的llama2.c的分支,旨在使Llama 2 LLM架构能够在各种设备上兼容运行,从Chromebook到企业高密度单核部署。该项目提供了多种构建目标,利用不同的库和工具来提高性能和可移植性,确保用户能够在不同的环境中高效使用Llama 2。