Llama Stack 是一个开源项目,旨在将 LLM 应用构建生成周期的所有组件打包,包括训练、微调、产品评估、观测、Agent & Memory、合成数据生成等,并支持 9+ 提供商。
OpenDelta是一个开源框架,旨在实现高效的参数调优(Delta Tuning),支持多种机器学习模型和任务,具有易于集成和扩展的特点,能够优化计算资源的使用。
LLMTuner 是一个专为大语言模型设计的指令调优工具,支持全量参数微调、LoRA 和 QLoRA,旨在提升模型的指令响应能力和优化微调过程。
LLM-Tuning 是一个专注于简化大语言模型(LLM)微调过程的工具,支持多种模型与数据集,旨在帮助用户轻松实现模型训练与评估。
Vercel AI Playground是一个在线平台,允许用户使用最新的AI语言模型构建AI驱动的应用程序。它提供了一系列功能来微调模型,例如并排比较模型的Compare Mode和优化参数的Tweak Mode。
nanoChatGPT是在nanoGPT基础上,结合了人类反馈的强化学习层,使用Gumbel-Softmax技巧以提高训练效率,适合进行小型模型的快速实验。
一个用于促进和支持链式思考的工具库,旨在提高模型推理能力和理解力。
vLLM是一个开源的高效语言大模型服务系统,专注于提升推理速度和效率。它通过创新的内存管理和调度技术,优化了键值缓存(KV cache)的动态增缩和碎片化问题,显著提高了吞吐量并降低了延迟。vLLM支持多种语言模型,适用于高吞吐量的深度学习任务和大规模语言模型的部署。其设计简洁,开源社区支持强大,文档友好,特别适合需要高效推理能力的项目。
GPT4All是一款在本地运行的大型语言模型(LLM),最新发布了V3.0版本,支持多种模型架构,并与多种工具和平台集成。它基于LLaMa模型,使用约80万条GPT-3.5-Turbo生成的数据进行训练,支持多种类型的对话,包括代码和故事。GPT4All完全本地运行,确保数据隐私,支持Windows、MacOS、Ubuntu等操作系统,并具有改进的UI/UX。
Algomax是一个平台,旨在简化您的LLM和RAG模型评估,提升提示开发效率,并通过独特的定性指标洞察加速开发过程。该平台提供直观的仪表盘,便于您轻松集成到工作流程中,评估模型性能,评估引擎设计精准,能够深入洞察模型行为。
该项目专注于对独立成分进行对齐,以改善多任务学习的效果。通过利用独立成分分析技术,提升多任务学习场景中的性能,适用于多种机器学习任务。
建立在HuggingFace模型和PyTorch Fully Sharded Data Parallelism基础上的训练套件,旨在优化吞吐量,简化在资源受限环境中训练中型模型的分布式方案设置工作流程,尤其适用于学术集群。
self-adaptive-llms 是一个自适应框架,可以使大型语言模型实时适应未见过的任务,像是为模型装上“智能调节器”,从而在面对新任务时迅速调整,更好地完成任务。
ModuleFormer是一个模块化的大模型,通过使用不同的模块来提高效率和灵活性。该模型允许根据输入动态激活特定模块,从而实现针对特定领域的优化和轻量化。
2000 Fine Tuning Prompts是一个全面的资源,旨在帮助爱好者学习和实验微调,熟悉其在不同上下文中的功能和应用。
K-Scale Sim是一个简单高效的库,专为在MJX和MuJoCo中训练仿人类运动而设计,支持强化学习代理的训练和评估,提供快速原型设计、环境规范和超参数调整功能,同时通过Weights & Biases跟踪和记录训练结果。
Smousss是一个专为Laravel开发者设计的AI工具,旨在帮助处理遗留项目。它提供了一系列功能,包括使项目可翻译、生成缺失的Laravel Nova管理面板等。Smousss利用机器学习来自动化重复任务,从而提高开发者的工作效率。
ReComA旨在通过Agent通信实现推理问题的简化开发,提供了一个灵活的框架,支持多Agent间的通信,易于集成到现有系统中。