Punica 是一个工具,旨在将多个经过 LoRA 微调的语言模型整合在一起,简化管理和调用,提供灵活的模型组合和优化的性能响应。
LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
stablediffusion api是一个强大的API,旨在让开发者专注于构建下一代AI产品,而无需担心GPU的维护。它提供了便捷的接口,支持用户生成和微调Dreambooth Stable Diffusion,极大地简化了图像生成的流程和技术门槛。
LLM Prompt & Model Playground 是一个让用户可以并排测试两个LLM提示、模型或配置的工具。它支持多种输入的实时测试,极大地加快了提示和模型的测试过程,并且提供了慷慨的免费使用额度。该项目由Context.ai开发。
Qwen2-VL微调工具:用于微调开源多模态大模型Qwen2-VL,支持单GPU和多GPU训练,提供简易上手的微调脚本和数据,旨在帮助开发者快速进行模型微调或再训练
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
Airtrain.ai LLM Playground是一个无代码的平台,可以同时对多种开源和专有LLM(如Claude、Gemini、Mistral AI、OpenAI模型、Llama 2、Phi-2等)进行质量、性能和成本的检查与比较。该平台旨在为用户提供简便的工具,以便在选择合适的语言模型时做出明智的决策。
本项目旨在利用合成数据,通过大语言模型从非结构化文档生成查询和相关文档,从而创建合成数据集,以微调开源嵌入模型。这样可以显著提高信息检索的准确性和效率,同时增强模型在特定领域的理解能力。
从零开始构建自己的大型语言模型,提供详细教程和代码实现,覆盖编码、预训练和微调过程,适用于对自然语言处理和人工智能领域感兴趣的开发者和研究者