一个交互式指南,涵盖了提示工程和最佳实践,专为与大型语言模型(LLM)工作的开发者、研究人员和爱好者设计。
旨在探索一种新的实验性模型训练流程,以训练高性能的特定任务模型,将训练过程的复杂性抽象化,使从想法到性能优越的完全训练模型的过程尽可能简单。用户只需输入任务描述,系统将从头开始生成数据集,将其解析为正确格式,并微调LLaMA 2模型。
AtomGPT是基于LLaMA的模型架构,通过从零开始训练,旨在展示模型的进化过程及学习能力的提升,帮助研究人员深入理解模型的学习过程。
Showllable 是一个开源项目,旨在提供一个简化的方式来展示和分享机器学习模型。它支持多种模型格式,提供用户友好的界面,允许实时预览和分享功能,集成常用的可视化工具,并支持跨平台使用。
vicuna-33b是最新发布的高性能开源模型,尽管开源,但不允许商用,适用于各种自然语言处理任务。
Nebulgym是一款深度网络训练加速框架,用户只需增加几行代码即可显著提升AI模型的训练速度,且无需对现有训练设置进行修改。它支持多种深度学习框架,便于用户快速集成和使用。
灵活、健壮和高效的Python软件包,用于支持MLOps(机器学习运维)项目,提供多种工作流支持,优化性能,加速模型部署和监控,易于与其他工具集成,同时提供用户友好的API,确保模型和数据集的版本控制。
Aphrodite是PygmalionAI开发的大规模推理引擎,旨在高效处理各种AI模型的推理任务,支持多种模型格式并具备灵活的API设计,能够与其他机器学习框架无缝集成。
FATE-LLM是基于FederatedAI开发的联邦学习框架,支持大语言模型的分布式训练,旨在促进AI技术在保护知识产权和隐私的前提下的应用。该项目通过联邦学习架构,使得多方在不共享原始数据的情况下,能够协同训练出高效的AI模型,有效应对数据隐私和合规性挑战。
CodeGPT是通过GPT生成的用于GPT的代码对话数据集,公开了32K条中文数据,让模型更擅长编程。
FlexGen: 针对面向吞吐量的场景在单个 GPU 上运行大型语言模型,旨在提高模型的运行效率和简化部署过程。
One-GLM是基于GLM架构的项目,移植到了使用OneFlow后端进行训练,能够大幅提升性能和显存利用率。
TinyLLaMA是一个专为轻量语言模型设计的开源框架,为开发者提供在资源受限环境下构建高效模型的工具。
WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。
Fine Tune AI 是一个在线平台,旨在通过生成高质量的微调数据来帮助用户优化其人工智能模型。用户可以通过输入提示来获取定制的数据集,从而提高模型在特定任务上的表现。该平台支持多种场景,适合不同领域的应用需求。
LLM GPU Helper 旨在通过智能GPU分配和用户友好的界面,简化大语言模型的部署和性能管理,适用于数据科学家、AI研究人员和开发者。它提供了一系列先进功能,帮助用户高效且经济地利用强大的GPU基础设施。
JaxIRL是一个在JAX框架中实现的反向强化学习(IRL)算法,能够以极高的效率训练模型,支持多种算法,具有灵活性和可扩展性。
WaveCoder是一个广泛且多才的项目,专注于增强指令调优和精炼数据生成,采用经过精心调优的代码语言模型和生成器-判别器框架,从开源代码中生成高质量、非重复的指令数据,显著提升大型语言模型在与代码相关任务中的表现和泛化能力。