Vercel AI Playground是一个在线平台,允许用户使用最新的AI语言模型构建AI驱动的应用程序。它提供了一系列功能来微调模型,例如并排比较模型的Compare Mode和优化参数的Tweak Mode。
LLMTuner 是一个专为大语言模型设计的指令调优工具,支持全量参数微调、LoRA 和 QLoRA,旨在提升模型的指令响应能力和优化微调过程。
Llama Stack 是一个开源项目,旨在将 LLM 应用构建生成周期的所有组件打包,包括训练、微调、产品评估、观测、Agent & Memory、合成数据生成等,并支持 9+ 提供商。
SimCSE是一个简单的框架,旨在通过无监督和监督的方法进行句子嵌入的对比学习,从而实现高质量的句子表示。
基于LLaMA和SlimPajama的MoE模型,旨在利用混合专家模型进行持续预训练。该模型结合了LLaMA和SlimPajama的优点,通过支持混合专家架构,提高模型的效率和性能,同时能够进行持续的预训练,以适应不同的任务,灵活的模型配置使其适用于多种应用场景。
一个可定制、简洁、用户友好且高效的工具包,用于训练和微调大型语言模型,支持多种训练和优化方法,以提高模型性能和稳定性。
nanoRWKV是RWKV语言模型的轻量级实现,专为快速实验与多种语言处理任务设计,兼容RWKV架构,基于nanoGPT优化了性能和效率,易于扩展和自定义。
2000 Fine Tuning Prompts是一个全面的资源,旨在帮助爱好者学习和实验微调,熟悉其在不同上下文中的功能和应用。
LLM-Dojo是一个开源大模型学习场,提供简洁易读的代码框架,支持多种主流模型的训练和强化学习技术,旨在帮助AI爱好者和研究者进行深入的研究和开发。